Ich habe nach einer Lösung für diese Frage gesucht.Ist es möglich, Parkett mit Java zu lesen und zu schreiben, ohne von Hadoop und HDFS abhängig zu sein?
Es scheint mir, dass es keine Möglichkeit gibt, das Parkett in einem Java-Programm zu lesen und zu schreiben, ohne Abhängigkeiten von HDFS und Hadoop einzubeziehen. Ist das richtig?
Ich möchte auf einem Clientcomputer außerhalb eines Hadoop-Clusters lesen und schreiben.
Ich begann mich für Apache Drill zu begeistern, aber es scheint, dass es als ein separater Prozess ausgeführt werden muss. Was ich brauche, ist eine In-Process-Fähigkeit, eine Datei mit dem Parquet-Format zu lesen und zu schreiben.
OK. Dies funktioniert (unter Windows), wenn ich winutils.exe habe. Ich hätte die Frage anders formulieren sollen. Ich glaube nicht, dass ich winutils.exe verfügbar habe, wo ich das schreiben (und lesen) möchte. Wie auch immer, beantwortet dies (obwohl ich das gelesen werden muss). Vielen Dank. – Jesse
Ich sollte auch hinzufügen, dass ich einige veraltete APIs in Ihrer Antwort gefunden habe. Ich denke, es wird erwartet, dass die Builder für die Erstellung der AvroWriteSupport- und ParquetWriter-Objekte verwendet werden. – Jesse
Ja, die Konstruktoren sind veraltet, nicht die Klasse. Wie du gesagt hast, sollten wir die Erbauer benutzen. – Krishas