2016-10-16 5 views
0
definiert

Ich erhalte die folgende Fehlermeldung, wenn ich versuche, eine der Proben auszuführen, die für den Apache-Spark-Dienst auf IBM Bluemix gegeben:IBM Bluemix sc nicht

NameErrorTraceback (most recent call last) 
<ipython-input-5-7de9805c358e> in <module>() 
----> 1 set_hadoop_config(credentials_1) 

<ipython-input-2-e790e4773aec> in set_hadoop_config(credentials) 
     1 def set_hadoop_config(credentials): 
     2  prefix = "fs.swift.service." + credentials['name'] 
----> 3  hconf = sc._jsc.hadoopConfiguration() 
     4  hconf.set(prefix + ".auth.url", credentials['auth_url']+'/v3/auth/tokens') 
     5  hconf.set(prefix + ".auth.endpoint.prefix", "endpoints") 

NameError: global name 'sc' is not defined 

Ich lade eine einfache CSV-Datei Die Option zum Einfügen von Codes in die Datenquellenpalette. Die Credentials, die generiert werden, enthalten jedoch nicht das Attribut 'Name'.

credentials['name'] ist nicht in den Schlüsselwertpaaren, die generiert werden, nachdem ich auf Einfügen klicken, um zu codieren.

Ich möchte wissen, ob es andere Möglichkeiten gibt, um die Daten zu laden, oder dieses Problem ein IBM Bluemix-Problem zu lösen.

Antwort

0

Sie wurden von einem Bluemix-Problem betroffen. Die Variable sc ist standardmäßig definiert und enthält einen SparkContext. Aber wenn der Spark-Master nicht erreichbar ist, wenn der Python-Notebook-Kernel startet, werden Sie eine Verzögerung von einigen Sekunden bemerken, dann erscheint der Kernel, aber sc ist nicht definiert. Ihre Frage ist schon zwei Tage alt (fehlte einer der Tags?), Also sollten sich die Dinge inzwischen erholt haben. Probieren Sie es einfach noch einmal. Wenn dies fehlschlägt, starten Sie den Kernel neu. Wenn Sie noch keine sc haben, wenden Sie sich an den Bluemix-Support, um ein Problem mit dem Apache Spark-Dienst zu erfahren.