如何处理HDFS中的20GB数据文件

qeeaahzv  于 2022-12-09  发布在  HDFS
关注(0)|答案(1)|浏览(198)

我需要根据特定条件从文件中的20GB数据中获取唯一的JSON记录(取决于queryId)。文件中的每一行都是一条JSON记录。例如:
{"sessionID":"xyz","appID":"abc","tenantID":"123","realmId":"buyer_2021","topology":"top456","queryId":"12346278","signalType":"USER_QUERY_RESULTS",XYZ content.....}

dgenwo3n

dgenwo3n1#

文件中的每一行都是一条JSON记录。
从Spark开始。您不需要Hadoop来处理仅20 GB的数据

val df = spark.read.json("file.json")

这样,您就可以选择/filter/groupBy等查询ID字段。
https://spark.apache.org/docs/latest/sql-data-sources-json.html

相关问题