Ich muss ein 27 Giga-Dataset direkt in meinem azurblauen Konto laden und entpacken, um mit einer Spark-Instanz mit der textFile-Funktion daran zu arbeiten, etwas maschinelles Lernen zu machen. Wie kann ich es tun?Download und entpacken Datensatz direkt in Azure
Ich würde gerne mehr schreiben, aber ich habe so viele Stunden damit verbracht, im Internet zu surfen und trotzdem kann ich nichts Nützliches erreichen.
Dies ist der Datensatz:
https://academicgraphwe.blob.core.windows.net/graph-2016-02-05/index.html
Ich habe es manuell mit ssh getan. Jetzt, wo ich die .txt-Dateien in meiner Ubuntu-VM habe, wie kann ich diese .txt in Blobspeicher speichern? – Aalto
http://storageexplorer.com/ läuft unter Linux und der einfachste Weg, um etwas von lokalen CD auf azure Blob hochzuladen. –
Ich muss es auf meinem lokalen Rechner installieren und alle meinen Speicher remote verwalten, direkt ohne ssh oder irgendetwas anderes, nicht wahr? – Aalto