Ich erhalte die folgende Fehlermeldung, wenn ich versuche, eine der Proben auszuführen, die für den Apache-Spark-Dienst auf IBM Bluemix gegeben:IBM Bluemix sc nicht
NameErrorTraceback (most recent call last)
<ipython-input-5-7de9805c358e> in <module>()
----> 1 set_hadoop_config(credentials_1)
<ipython-input-2-e790e4773aec> in set_hadoop_config(credentials)
1 def set_hadoop_config(credentials):
2 prefix = "fs.swift.service." + credentials['name']
----> 3 hconf = sc._jsc.hadoopConfiguration()
4 hconf.set(prefix + ".auth.url", credentials['auth_url']+'/v3/auth/tokens')
5 hconf.set(prefix + ".auth.endpoint.prefix", "endpoints")
NameError: global name 'sc' is not defined
Ich lade eine einfache CSV-Datei Die Option zum Einfügen von Codes in die Datenquellenpalette. Die Credentials, die generiert werden, enthalten jedoch nicht das Attribut 'Name'.
credentials['name']
ist nicht in den Schlüsselwertpaaren, die generiert werden, nachdem ich auf Einfügen klicken, um zu codieren.
Ich möchte wissen, ob es andere Möglichkeiten gibt, um die Daten zu laden, oder dieses Problem ein IBM Bluemix-Problem zu lösen.