Ich versuche, eine Umgebung zur Unterstützung der explorativen Datenanalyse in einem Cluster einzurichten. Basierend auf einer ersten Umfrage, was mein Ziel ist, verwende ich Scala/Spark mit Amazon EM
Ich arbeite an einem Apache Crunch-Job mit jblas mit der Einschränkung, dass ich keine lokalen Dateien schreiben kann. Ich muss nur eine Operation ausführen, die temporäre Dateien schreibt: mmul. Zum
Ich versuche MLlib für Matrix-Multiplikation Problem zu verwenden. Ich bin mir bewusst, dass Spark MLLib native Bibliotheken verwendet, die auf den Knoten vorhanden sein müssen. (dass es nicht mit Fun