Ich bin ein Anfänger mit Scala und Apache Spark und ich bin mit dem unten stehenden Problem konfrontiert.Spark SQL zum Einfügen von Daten in Cassandra
Ich versuche, Daten in eine Kassandra-Tabelle einzufügen ..user (Name, favorite_food) mit Funken SQL.
Das Code-Snippet sieht wie folgt aus
val conf = new SparkConf(true)
.set("spark.cassandra.connection.host", "127.0.0.1")
val sc = new SparkContext("local", "test", conf)
val sqlC = new CassandraSQLContext(sc)
sqlC.setKeyspace("myKeySpace")
sqlC.sql("INSERT into user (name,favorite_food) values ('John Doe','brownies')")
Jedoch habe ich das Problem Exception in thread "main" java.lang.RuntimeException Gesicht: [1.13] failure: `` Tabelle '' erwartet, aber Kennung Benutzer gefunden
ich bin eine lokale Instanz von Cassandra DB laufen
Mein Maven POM wie
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>1.6.2</version>
</dependency>
</dependencies>
sieht
Meine Frage ist; Bitte lassen Sie mich wissen, warum ich den unten stehenden Fehler habe (Die insert-Anweisung funktioniert einwandfrei in der Cassandra-Shell) Ausnahme im Thread "main" java.lang.RuntimeException: [1.13] Fehler: `` table '' erwartet aber Identifier Benutzer gefunden
PS: Ich weiß, ich kann den Spark-Connector von Datastax verwenden, um Daten in Cassandra zu speichern, aber ich möchte Spark SQL verwenden ... ist das möglich?
Ich wette 'user' ist ein reserviertes Wort, wenn Sie es zitieren' "user" 'es Mai – RussS