Ich spark-Übermittlung einer Python-Datei, die numpy importiert, aber ich bekomme einen no module named numpy
Fehler.Kein Modul namens numpy beim Senden von Sparks
$ spark-submit --py-files projects/other_requirements.egg projects/jobs/my_numpy_als.py
Traceback (most recent call last):
File "/usr/local/www/my_numpy_als.py", line 13, in <module>
from pyspark.mllib.recommendation import ALS
File "/usr/lib/spark/python/pyspark/mllib/__init__.py", line 24, in <module>
import numpy
ImportError: No module named numpy
Ich dachte ich in einem Ei für numpy -python-Dateien ziehen würde, aber ich habe Probleme, herauszufinden, wie man das Ei zu bauen. Aber dann fiel mir ein, dass pyspark selbst numpy verwendet. Es wäre albern, meine eigene Version von numpy einzutragen.
Irgendeine Idee auf die passende Sache, hier zu tun?
Versuchen Sie, das vollständige SciPy- oder unabhängige NumPy-Paket für die Python-Binärdatei zu installieren, die Sie gerade verwenden: http://www.scipy.org/install.html –