2016-08-04 11 views
1

Ich bin neu in ElasticSearch und ich versuche, einige Apache Spark-Code zu schreiben, um einige Daten in ElasticSearch zu speichern. Ich habe die folgenden Zeilen in SparkShell eingegeben:ElasticSearch Spark Fehler

import org.elasticsearch.spark._ 
val myMap = Map("France" -> "FRA", "United States" -> "US") 
val myRDD = sc.makeRDD(Seq(myMap)) 
myRDD.saveToEs("Country/Abbrv") 

Der Fehler:

org.elasticsearch.hadoop.EsHadoopIlegalArgumentException: Cannot determine write shards for [Country/Abbrv]; likely its format is incorrect (maybe it contains illegal characters?) 

Funken 2.0.0 Elasticsearch-Spark-2.3.4

Irgendwelche Ideen?

Antwort

0

Das Problem war, dass ich die --conf var nicht vor dem Start von Spark Shell gesetzt habe. Es muss wie folgt aussehen:

spark-shell --jars {path}/elasticsearch-spark_2.11-2.3.4.jar --conf spark.es.resource=Country/Abbrv 
Verwandte Themen