Könnte jemand ein Beispiel mit pyspark angeben, wie eine benutzerdefinierte Apache Phoenix SQL-Abfrage ausgeführt und das Ergebnis dieser Abfrage in einer RDD oder DF gespeichert wird. Hinweis: Ich suche nach einer benutzerdefinierten Abfrage und nicht nach einer vollständigen Tabelle, die in eine RDD gelesen werden soll.Ausführen einer benutzerdefinierten Apache Phoenix SQL-Abfrage in PySpark
Von Phoenix-Dokumentation, eine ganze Tabelle laden ich diese verwenden:
table = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("table", "<TABLENAME>") \
.option("zkUrl", "<hostname>:<port>") \
.load()
ich wissen will, was für die Verwendung einer benutzerdefinierten SQL
sqlResult = sqlContext.read \
.format("org.apache.phoenix.spark") \
.option("sql", "select * from <TABLENAME> where <CONDITION>") \
.option("zkUrl", "<HOSTNAME>:<PORT>") \
.load()
Dank der entsprechenden entspricht.
Ist dies eine Antwort oder ein Teil der Frage? – YOU
Beide. Es benutzte JDBC, um das zu erreichen, was ich machen wollte, aber die Phoenix Spark-Option wäre besser, daher mein Versuch und die entsprechende Fehlermeldung. –
Frage sollte im ersten Beitrag bearbeitet werden, weil dies der Antwortabschnitt ist. stackoverflow ist nicht wie normale Foren. – YOU