2016-07-13 3 views
1

ich das Beispiel von https://neo4j.com/blog/neo4j-3-0-apache-spark-connector/ und alles verfolgt haben schien gut, bis ich die folgende Zuordnung versuchen: val query = „Cypher runtime = kompilierte MATCH (n), wobei id (n) < { maxid} return id (n)“Fehler bei der Verwendung von Neo4j-Funken-Stecker

ich erhalte den Fehler‚konnte nicht ‚localhost‘ auf Port 7687 verbinden, gewährleisten die Datenbank ausgeführt wird und dass es eine funktionierende Netzwerkverbindung zu.‘ ich bin ziemlich neu bei Spark und bin mir nicht sicher, wie ich das beheben soll. Als ich das ausgeführt habe, hatte ich meine Neo4j-Datenbank auf.

Antwort

1

Port 7687 ist der Port für BOLT, das binäre Protokoll für Neo4j, das der im Neo4j Spark Connector enthaltene Java-Treiber verwendet, um Daten von Neo4j zu ziehen. Das ist ein Verbindungsfehler zu Neo4j.

Welche Version von Neo4j verwenden Sie? Verwenden Sie die Standard-Konfigurationseinstellungen für Neo4j?

Haben Sie das Passwort für Neo4j angeben als here angegeben:

spark.neo4j.bolt.password=<password> 

Wenn Sie sich nach dem Beispiel aus dem Blog veröffentlichen den Befehl Funken Shell starten würde wie folgt aussehen:

$SPARK_HOME/bin/spark-shell \ 
--conf spark.neo4j.bolt.password=YOUR_PASSWORD_FOR_NEO4J_HERE \ 
--packages neo4j-contrib:neo4j-spark-connector:1.0.0-RC1,\ 
graphframes:graphframes:0.1.0-spark1.6 
+0

Danke für Ihre Antwort! Die aktuell verwendete Version von Neo4j ist die 2.3.3 Community. Der genaue Code, den ich ausprobiert habe, ist: '$ SPARK_HOME/bin/funken-shell \ --conf spark.neo4j.bolt.password = MYPASSWORD \ --pakete neo4j-contrib: neo4j-funken-connector: 1.0.0-RC1 , \ graphframes: graphframes: 0.1.0-spark1.6 import org.neo4j.spark._ Neo4jTupleRDD (sc, "MATCH (n) return id (n)", Seq.empty) .count' wo Password ist genau mein Passwort und ich bekomme immer noch den gleichen Verbindungsfehler. –

+0

Sie müssen Neo4j 3.0 verwenden. Der Spark-Connector verwendet den neuen offiziellen Java-Treiber über BOLT, der in Neo4j Version 3.0 eingeführt wurde. Es wird nicht mit früheren Versionen funktionieren. –

+0

@WilliamLyon gibt es eine obere Grenze der Datengröße für Neo4j Spark Connector? Zum Beispiel speichert Mazerunner alle Daten in einem HDFS-Zwischenspeicher ... also theoretisch kann es mit hunderten von GB Daten im Stapelmodus arbeiten. Wie funktioniert dieser Anschluss mit 100 GB Daten? Wir suchen eine große neo4j db mit Funken zu integrieren. – Sandeep

Verwandte Themen