Das Spark-Daria-Projekt ist uploaded to Spark Packages und ich zugreifen Spark-Daria-Code in einem anderen SBT-Projekt mit der sbt-spark-package plugin.Ein Spark-Paket JAR-Datei in einem SBT generiert Fett JAR
Ich kann Funken-Daria in die Fett-JAR-Datei von sbt assembly
mit dem folgenden Code in der Datei build.sbt
generiert enthalten.
spDependencies += "mrpowers/spark-daria:0.3.0"
val requiredJars = List("spark-daria-0.3.0.jar")
assemblyExcludedJars in assembly := {
val cp = (fullClasspath in assembly).value
cp filter { f =>
!requiredJars.contains(f.data.getName)
}
}
Dieser Code fühlt sich an wie ein Hack. Gibt es eine bessere Möglichkeit, Spark-Daria in die fette JAR-Datei aufzunehmen?
N.B. Ich möchte hier eine halbfette JAR-Datei erstellen. Ich möchte Spark-Daria in der JAR-Datei enthalten, aber ich möchte nicht alle Spark in der JAR-Datei!