Option 1 Die erste Standardinstallation von ibmdbpy ist in/usr/local/.... vorhanden. Sie können dort db2jcc jar nicht hinzufügen. Wenn Sie ibmdbpy deinstallieren, das bereits installiert ist, und ibmdbpy anschließend installieren, installieren Sie es im Verzeichnis .local des Benutzers (Spark Tenant).
!pip install --user lazy !pip install --user jaydebeapi !pip uninstall --yes ibmdbpy !pip install ibmdbpy --user --ignore-installed --no-deps !wget -O $HOME/.local/lib/python2.7/site-packages/ibmdbpy/db2jcc4.jar https://ibm.box.com/shared/static/lmhzyeslp1rqns04ue8dnhz2x7fb6nkc.zip
Das funktionierte. Ref: - https://github.com/ibmdbanalytics/ibmdbpy-notebooks/blob/master/ibmdbPyDemo.ipynb
Option 2
Wenn Sie in Ordnung sind alternative Methode zu verwenden, gibt es Python-Anschluss auf DSX zur Verfügung. https://datascience.ibm.com/docs/content/analyze-data/python_load.html#ibm-dashdb
from ingest.Connectors import Connectors
dashDBloadOptions = { Connectors.DASHDB.HOST : 'hostname',
Connectors.DASHDB.DATABASE : 'BLUDB',
Connectors.DASHDB.USERNAME : 'username',
Connectors.DASHDB.PASSWORD : 'XXXXX',
Connectors.DASHDB.SOURCE_TABLE_NAME : 'schema.MYTABLE'}
dashdbDF = sqlContext.read.format("com.ibm.spark.discover").options(**dashDBloadOptions).load()
dashdbDF.printSchema()
dashdbDF.show()
Diese Sie Datenrahmen, wenn das ist Funke gibt, was Sie interessiert sind.
Danke, Charles.
Können Sie den Link zum Demo-Notizbuch teilen und angeben, welchen Kernel Sie verwenden? – ptitzler
https://apsportal.ibm.com/analytics/notebooks/b12aa9a7-3957-46d0-883f-5fc0ed300179/view?access_token=359e55b101b22e4d9936d84f7948aea1c6d5fd956b4955937132a93116582ed0 Kernel ist Python 2 mit Funken 2.0 – JABrooks
@JABrooks verstecken Sie bitte Ihre dash Anmeldeinformationen von Notebook –