2016-11-24 2 views
0

versucht Pyspark2.0.2-hadoop2.7 bietet Fehler zu verwenden, bei der Verwendung mit Python2.7.xPyspark Import Fehler in Python2.7.x

-Code als:

import os 

import sys 

os.environ['SPARK_HOME']="C:/Apache/spark-2.0.2-bin-hadoop2.7" 

sys.path.append("C:/Apache/spark-2.0.2-bin-hadoop2.7/python") 

try: 

    from pyspark import SparkContext 

    from pyspark import SparkConf 

    print("Succesfull") 

except ImportError as e: 

    print("Cannot import PYspark module", e) 

    sys.exit(1) 

, wie ich diese laufen Code zur Verfügung stellen "Kann PYspark Modul nicht importieren" Nachricht.

Dank

Antwort

0

verlängern Python Weg sowohl von pyspark und py4j, für die Funken 2.0.2 wird es sein:

sys.path.append("C:/Apache/spark-2.0.2-bin-hadoop2.7/python/lib/py4j-0.10.3-src.zip") 
sys.path.append("C:/Apache/spark-2.0.2-bin-hadoop2.7/python/lib/pyspark.zip") 
+0

Dank Mariusz, – Ram

+0

nach Weg der py4j erweitern Hinzufügen funktioniert es gut. – Ram