我使用的是pyspark2.2,有以下模式
root
|-- col1: string (nullable = true)
|-- col2: array (nullable = true)
| |-- element: struct (containsNull = true)
| | |-- id: string (nullable = true)
| | |-- metadata: map (nullable = true)
| | | |-- key: string
| | | |-- value: string (valueContainsNull = true)
和数据
+----+----------------------------------------------+
|col1|col2 |
+----+----------------------------------------------+
|A |[[id1, [k -> v1]], [id2, [k2 -> v5, k -> v2]]]|
|B |[[id3, [k -> v3]], [id4, [k3 -> v6, k -> v4]]]|
+----+----------------------------------------------+
``` `col2` 是一个复杂的结构。它是一个结构数组,每个结构都有两个元素 `id` 字符串和 `metadata` Map(这是一个简化的数据集,真正的数据集在struct中有10+个元素,在struct中有10+个键值对 `metadata` 字段)。
我想形成一个查询,返回一个与我的过滤逻辑匹配的Dataframe(比如 `col1 == 'A'` 以及 `col2.id == 'id2'` 以及 `col2.metadata.k == 'v2'` ).
结果是这样的,过滤逻辑最多可以匹配数组中的一个结构,因此在第二列中,它只是一个结构,而不是一个结构的数组
+----+--------------------------+
|col1|col2_filtered |
+----+--------------------------+
|A |[id2, [k2 -> v5, k -> v2]]|
+----+--------------------------+
我知道如何通过 `explode` ,但问题是 `col2` 通常有超过100+结构,最多会有一个匹配我的过滤逻辑,所以我不认为 `explode` 是一个可扩展的解决方案。
有人能告诉我怎么做吗,提前谢谢!
下面是设置的代码块。
from pyspark.sql.types import StructType, StructField, StringType, ArrayType, MapType
schema = StructType([
StructField('col1', StringType(), True),
StructField('col2', ArrayType(
StructType([
StructField('id', StringType(), True),
StructField('metadata', MapType(StringType(), StringType()), True)
])
))
])
data = [
('A', [('id1', {'k': 'v1'}), ('id2', {'k': 'v2', 'k2': 'v5'})]),
('B', [('id3', {'k': 'v3'}), ('id4', {'k': 'v4', 'k3': 'v6'})])
]
df = spark.createDataFrame(data=data, schema=schema)
2条答案
按热度按时间68de4m5k1#
编辑:您可以尝试自定义项:
您可以将这些列强制转换为json,并检查col2是否包含所需的json:
如果您只想在col2中保留匹配的结构,可以使用
withColumn
:kdfy810k2#
除了@mck提供的解决方案,我在搜索之后尝试了另外三种方法,都得到了想要的结果。
过滤使用
udf
并返回匹配的结构过滤使用
udf
并得到匹配结构的索引过滤使用
expr
,这是spark 2.4中的一项功能,因此可以作为未来升级的候选