我已经使用Python访问了我的Azure数据库,现在我想回收一些R代码以继续此分析。我是否可以在这两种语言之间进行交换?例如,在Python中导入 Dataframe ,然后使用R代码使用该 Dataframe 。
- 数据导入到PySpark数据框架中**
venue_list_raw = spark.read.option("inferSchema", "true").option("header", "true").csv("path.csv")
- 继续R中的工作,例如**
venue_list <- venue_list_raw %>% mutate(postcode_short = substr(postcode,1,nchar(str_extract(postcode,"(\\w+)"))+2))
我已经试过了:
%r
library(SparkR)
library(dbplyr)
# collect the data from Spark to local
# convert Spark DataFrame into R data frame
mailing_list_raw_r <- collect(mailing_list_raw)
display(mailing_list_raw_r)
1条答案
按热度按时间nxowjjhe1#
如果你在数据库中执行上述操作,你可以通过为 Dataframe 创建临时视图来完成,然后在R中访问该视图,如下所示。
df.createOrReplaceTempView("temp1")
代码:
或者像下面这样。