2016-07-07 26 views
0

Ich versuche, Funken und eleastische Suche unter Verwendung der elasticsearch-spark-Bibliothek mit dem sbt-Artefakt einzurichten: "org.elasticsearch" %% "elasticsearch-spark" % "2.3.2". Wenn ich versuche, eleastic Suche mit diesem Code zu konfigurieren:Elastische Suche und Spark

val sparkConf = new SparkConf().setAppName("test").setMaster("local[2]") 
.set("es.index.auto.create", "true")
  
.set("es.resource", "test") 
.set("es.nodes", "test.com:9200")
  

halte ich den Fehler bekommen: illegal character für alle gesetzten Aussagen über für Elasticsearch. Wer kennt das Problem?

Antwort

2

Sie müssen den Code von einer Website oder einem anderen Blog kopiert haben. Es enthält unlesbare Zeichen, die Ihnen Probleme bereiten.

Einfache Lösung: Löschen Sie den gesamten Inhalt. Geben Sie eins nach dem anderen manuell ein und führen Sie es aus. Lassen Sie mich wissen, wenn Sie wieder Probleme haben, werde ich Ihnen helfen.

+0

Yup das war das Problem. Ich kopierte es von einer Website und es wurden einige unzulässige Zeichen eingefügt und meine IntelliJ IDE konnte es nicht lesen. Ich habe einfach den ganzen Text gelöscht und neu eingegeben und es hat funktioniert. Vielen Dank! – CapturedTree

+0

Glaubst du, du kannst mir bei einem Problem helfen, das ich beim Speichern von Daten von Spark zu elastischer Suche habe? – CapturedTree

+1

Sicher ... Bitte lassen Sie mich Ihr Problem wissen .. Ich werde versuchen, Ihnen zu helfen. – Srini

0

Sie können den http.publish_host in Ihrer elasticsearch.yml auf HOST_NAME festlegen. Der Es-Hadoop-Connector schnüffelt die Knoten aus der _nodes/transport-API, um zu prüfen, wie die veröffentlichte http-Adresse lautet.

Verwandte Themen