Ich entwerfe eine Anwendung, die Antwort sehr schnell benötigt und eine große Menge von Daten (> 40G) von Hadoop Dateisystem abrufen und verarbeiten muss, eine Eingabe (Befehl) gegeben.Wie kann Spark Eingabe nehmen, nachdem es eingereicht wurde
Ich denke, wenn es möglich ist, so viel Datenmenge im verteilten Speicher mit Funken zu fangen, und lassen Sie die Anwendung die ganze Zeit laufen. Wenn ich der Anwendung einen Befehl gebe, könnte sie beginnen, Daten basierend auf der Eingabe zu verarbeiten.
Ich denke, solche großen Daten zu fangen ist kein Problem. Wie kann ich jedoch die Anwendung laufen lassen und Eingaben machen?
Soweit ich weiß, gibt es nichts nach „funken Eintragen“ Befehl getan werden kann ...