pandas PySpark -使用扫描功能将sas宏转换为pyspark

7gcisfzg  于 2022-11-27  发布在  Spark
关注(0)|答案(1)|浏览(133)

我是pyspark和python的初学者,尝试将我的一个SAS宏转换为pyspark,但是无法找到与SAS中的SCAN函数等效的有用资源,并且在EMR studio pyspark集群中执行while循环时也有困难。我正在尝试将下面的SAS宏转换为pyspark,谢谢大家。

-- start macro --

%let a=1;
%do %while (%scan(&varlist., &a.) ne );
    %let d = %scan(&varlist., &a.);
    %put &d. ;

-- end macro --

## &varlist variable contains the values similar to the following list
    [Decimal('124.00000'), Decimal('416.000000'), Decimal('205.00000'), Decimal('332.000000')]
kcugc4gi

kcugc4gi1#

下面是等价的Python代码:

for d in [124.0, 416.0, 205.0, 332.0]:
    print(d)

相关问题