ich das Beispiel von https://neo4j.com/blog/neo4j-3-0-apache-spark-connector/ und alles verfolgt haben schien gut, bis ich die folgende Zuordnung versuchen: val query = „Cypher runtime = kompilierte MATCH (n), wobei id (n) < { maxid} return id (n)“Fehler bei der Verwendung von Neo4j-Funken-Stecker
ich erhalte den Fehler‚konnte nicht ‚localhost‘ auf Port 7687 verbinden, gewährleisten die Datenbank ausgeführt wird und dass es eine funktionierende Netzwerkverbindung zu.‘ ich bin ziemlich neu bei Spark und bin mir nicht sicher, wie ich das beheben soll. Als ich das ausgeführt habe, hatte ich meine Neo4j-Datenbank auf.
Danke für Ihre Antwort! Die aktuell verwendete Version von Neo4j ist die 2.3.3 Community. Der genaue Code, den ich ausprobiert habe, ist: '$ SPARK_HOME/bin/funken-shell \ --conf spark.neo4j.bolt.password = MYPASSWORD \ --pakete neo4j-contrib: neo4j-funken-connector: 1.0.0-RC1 , \ graphframes: graphframes: 0.1.0-spark1.6 import org.neo4j.spark._ Neo4jTupleRDD (sc, "MATCH (n) return id (n)", Seq.empty) .count' wo Password ist genau mein Passwort und ich bekomme immer noch den gleichen Verbindungsfehler. –
Sie müssen Neo4j 3.0 verwenden. Der Spark-Connector verwendet den neuen offiziellen Java-Treiber über BOLT, der in Neo4j Version 3.0 eingeführt wurde. Es wird nicht mit früheren Versionen funktionieren. –
@WilliamLyon gibt es eine obere Grenze der Datengröße für Neo4j Spark Connector? Zum Beispiel speichert Mazerunner alle Daten in einem HDFS-Zwischenspeicher ... also theoretisch kann es mit hunderten von GB Daten im Stapelmodus arbeiten. Wie funktioniert dieser Anschluss mit 100 GB Daten? Wir suchen eine große neo4j db mit Funken zu integrieren. – Sandeep