我正在使用Spark MongoDB connector从mongodb中获取数据。但是我无法了解如何使用Spark和聚合管道(rdd.withPipeline)查询Mongo。以下是我的代码,我希望根据时间戳获取记录并存储在 Dataframe 中:
val appData=MongoSpark.load(spark.sparkContext,readConfig)
val df=appData.withPipeline(Seq(Document.parse("{ $match: { createdAt : { $gt : 2017-01-01 00:00:00 } } }"))).toDF()
使用spark在mongodb上查询时间戳值是否正确?
3条答案
按热度按时间zpgglvta1#
正如注解中提到的,您可以使用Extended JSON的日期过滤器。
另请参阅MongoDB Spark Connector: Filters and Aggregation以查看替代筛选器。
lp0sw83n2#
试试这个:
nvbavucw3#
试试这个(但是它有一些限制,比如mongo日期和ISODate只能采用TZ格式时间戳。