Ich versuche Funken zum ersten Mal, um herauszufinden, wie es funktioniert und es präsentieren. Ich bin sicher, dass es ein Duplikat gibt, aber ich habe es nicht gefunden, was die Ausführung von Apache Spark betrifft. Benötige ich unbedingt Scala, um es auf meinem Rechner laufen zu lassen? Ich habe das neueste Java, also ist das abgedeckt.Ausführen und Herunterladen von Apache Spark ohne Scala Compiler
-1
A
Antwort
2
Spark hat Java, Scala, R und Python API. Sie können eine beliebige dieser API verwenden und Sie benötigen nur Java zum Kompilieren.
2
Scala ist nicht obligatorisch. Es stehen 4 Sprachen (Scala, Java, Python, R) für Spark zur Verfügung. Du kannst jeden davon benutzen.
2
Grundsätzlich Spark-Programm kann in vier Sprach
- Scala
- Java
- Python
- R geschrieben werden, um die Scala-Programm Ihnen einen scala Compiler und JDK Für Java ausführen müssen Sie braucht JDK und Ähnliches für Python und R
Hoffe, das hilft!
Verwandte Themen
- 1. Unterstützt Fortify Python, Scala und Apache Spark?
- 2. Fehler beim Ausführen von Scala und Spark
- 3. Filterung mit Scala und Apache Spark
- 4. Apache Spark und Scala benötigt Gläser
- 5. Sortieren und Ranking in Apache Spark Scala?
- 6. Scala Apache Spark Cassandra Tabellenliste
- 7. Verwenden von reduceByKey in Apache Spark (Scala)
- 8. Spark (Scala) ausführen Datenframe innerhalb von Schleife
- 9. Verpacken und Ausführen von Scala Spark-Projekt mit Maven
- 10. (Scala) Konvertieren Zeichenfolge in Apache Spark
- 11. Log4J-Kafka-Funktionalität in Apache Spark/scala
- 12. Scala Spark Streaming Via Apache Toree
- 13. Parse JSON-Daten mit Apache Spark und Scala
- 14. Apache Spark Stderr und Stdout
- 15. Apache Toree und Spark Scala funktioniert nicht in Jupyter
- 16. Scala und Spark UDF-Funktion
- 17. Führen Apache Spark (Scala) Code in Bash-Skript
- 18. Apache Spark-Build-Fehler
- 19. Wie verbinden Sie zwei DataFrames in Scala und Apache Spark?
- 20. Ausführen von zwei Versionen von Apache Spark im Cluster-Modus
- 21. Fallklassengleichheit in Apache Spark
- 22. Herunterladen und Ausführen mit HTA
- 23. Ausführen eines Apache Spark Programms auf YARN von IntelliJ IDEA
- 24. Hadoop OutputFormat RunTimeException beim Ausführen von Apache Spark Kafka Stream
- 25. Ausführen von Apache Spark Beispielanwendung in IntelliJ Idee
- 26. Apache Spark vs Apache Spark 2
- 27. Scala - spark-corenlp - java.lang.ClassNotFoundException
- 28. Scala Präsentation Compiler und IntelliJ
- 29. Repartition mit Apache Spark
- 30. Geben von Argumenten in Apache Spark
vielleicht sollten Sie versuchen, die Dokumentation zu lesen, bevor Sie Fragen zu SO stellen. – mtoto
sollten Sie auf jeden Fall die Dokumentation darüber lesen –
Eigentlich gerade jetzt haha – ConfuzzledandPuzzled