Ich verwende PySpark mit MongoDB und möchte meine Datenbank mit einer Pipeline mit einem Filter von Datum abfragen. In Mongo meine Abfrage sieht wie folgt aus:PySpark MongoDB Abfrage Datum
db.collection.aggregate([{$match:{"creation":{$lte:new Date("Jan 1, 2016")}}},{$sort:{"creation":1}}])
Aber ich weiß nicht, wie die gleiche Sache in Python zu tun. Zum Beispiel habe ich versucht:
pipeline = [{'$match': {'creation': {'$lte': datetime.datetime(2016, 1, 1, 0, 0)}}}, {'$sort': {'creation': 1}}]
df = context.read.format("com.mongodb.spark.sql").options(pipeline=pipeline).load()
und ich habe einen Fehler: org.bson.json.JsonParseException: JSON-Reader wurde ein Wert erwartet, fand aber ' Datetime '.
(Ich will alles in der Pipeline tun und nicht in einer SQL-Abfrage)