我有两个 Dataframe df1
和df2
我想根据df1
的一些聚合结果过滤df2
比如说,
val resultDf1 = df1
.filter(// some filter logic)
val aggDf1 = resultDf1.agg(min("A"), max("A"))
df2
.filter(col("myColumn") > aggDf1.getInt(0))
.filter(col("myColumn") < aggDf1.getInt(1))
在spark中实现这一点的规范方法是什么?
1条答案
按热度按时间5lhxktic1#
您可以收集驱动程序的最小/最大值,并在第二个查询中使用它们,例如: