我使用的spark版本是2.4。我想有一个像下表这样的结果,有没有什么好办法呢?我一直在尝试使用group\u concat并将它们与分开,但是有没有最好的方法呢?
我们想结合df_1和df_2生成df_3。
**DF_1**
|key|value |
|:----: |:------:|
| key_1 |test_1 |
| key_1 |test_2 |
| key_1 |test_3 |
| key_2 |test_1 |
| key_2 |test_2 |
**DF_2**
|key|value |
|:----: |:------:|
| key_1 |value |
| key_1 |value |
**DF_3**
|key|value | test_1|test_2|test_3|
|:----: |:------:|:------:|:------:|:------:|
| key_1 |value |test_1|test_2|test_3
| key_2 |value |test_1|test_2|null
1条答案
按热度按时间wn9m85ua1#
根据你的问题,这是我能想到的最接近的了-
这样做的目的是使
temp_df1
dataframe将行转置到各个列,然后join
与temp_df2
获取所需的value
领域