2016-04-18 5 views
0

Sorry, wenn das eine dumme Frage ist. Ich habe einen einfachen Code in einem Scala-Notizbuch in einer Bluemix Spark-Instanz. Ich versuche, ein Glas von einer Github-Repository in der Art und Weise in den Tutorien (https://console.ng.bluemix.net/docs/services/AnalyticsforApacheSpark/index-gentopic2.html#developing_with_notebooks)Warum gibt% AddJar Befehl in Bluemix einen Fehler?

import scala.collection.breakOut 
%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/blob/master/dep-jar/com.ibm.json4j_1.0.9.jar 

Der Notebook Ausgang teilt mir angezeigt, hinzuzufügen, dass der Download abgeschlossen ist, aber eine Ausnahme wird dann ausgelöst:

Starting download from https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/blob/master/dep-jar/com.ibm.json4j_1.0.9.jar 
Finished download of com.ibm.json4j_1.0.9.jar 
Out[30]: 
Name: java.lang.NullPointerException 
Message: null 
StackTrace: scala.reflect.io.ZipArchive$.fromFile(ZipArchive.scala:36) 
scala.reflect.io.ZipArchive$.fromFile(ZipArchive.scala:34) 
scala.reflect.io.AbstractFile$.getDirectory(AbstractFile.scala:48) 
scala.reflect.io.AbstractFile$.getDirectory(AbstractFile.scala:36) 
scala.tools.nsc.Global.scala$tools$nsc$Global$$matchesCanonical$1(Global.scala:920) 
scala.tools.nsc.Global$$anonfun$16.apply(Global.scala:924) 
scala.tools.nsc.Global$$anonfun$16.apply(Global.scala:924) 
scala.collection.Iterator$class.find(Iterator.scala:780) 
scala.collection.AbstractIterator.find(Iterator.scala:1157) 
scala.collection.IterableLike$class.find(IterableLike.scala:79) 
scala.collection.AbstractIterable.find(Iterable.scala:54) 
scala.tools.nsc.Global.scala$tools$nsc$Global$$assoc$1(Global.scala:924) 
scala.tools.nsc.Global$$anonfun$17.apply(Global.scala:933) 
scala.tools.nsc.Global$$anonfun$17.apply(Global.scala:933) 
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:251) 
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:251) 
scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) 
scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47) 
scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:251) 
scala.collection.AbstractTraversable.flatMap(Traversable.scala:105) 
scala.tools.nsc.Global.invalidateClassPathEntries(Global.scala:933) 
com.ibm.spark.interpreter.ScalaInterpreter.updateCompilerClassPath(ScalaInterpreter.scala:167) 
com.ibm.spark.interpreter.ScalaInterpreter.addJars(ScalaInterpreter.scala:90) 
com.ibm.spark.magic.builtin.AddJar.execute(AddJar.scala:121) 
sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:95) 
sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:55) 
java.lang.reflect.Method.invoke(Method.java:507) 
com.ibm.spark.utils.DynamicReflectionSupport.invokeMethod(DynamicReflectionSupport.scala:106) 
com.ibm.spark.utils.DynamicReflectionSupport.applyDynamic(DynamicReflectionSupport.scala:78) 
com.ibm.spark.magic.MagicExecutor.executeMagic(MagicExecutor.scala:32) 
com.ibm.spark.magic.MagicExecutor.applyDynamic(MagicExecutor.scala:21) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:52) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:57) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:59) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:61) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:63) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:65) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:67) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:69) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:71) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:73) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:75) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:77) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:79) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:81) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:83) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:85) 
$line144.$read$$iwC$$iwC$$iwC$$iwC.<init>(<console>:87) 
$line144.$read$$iwC$$iwC$$iwC.<init>(<console>:89) 
$line144.$read$$iwC$$iwC.<init>(<console>:91) 
$line144.$read$$iwC.<init>(<console>:93) 
$line144.$read.<init>(<console>:95) 
$line144.$read$.<init>(<console>:99) 
$line144.$read$.<clinit>(<console>) 
$line144.$eval$.<init>(<console>:7) 
$line144.$eval$.<clinit>(<console>) 
$line144.$eval.$print(<console>) 
sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:95) 
sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:55) 
java.lang.reflect.Method.invoke(Method.java:507) 
org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1346) 
org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1$$anonfun$apply$3.apply(ScalaInterpreter.scala:296) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1$$anonfun$apply$3.apply(ScalaInterpreter.scala:291) 
com.ibm.spark.global.StreamState$.withStreams(StreamState.scala:80) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1.apply(ScalaInterpreter.scala:290) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1.apply(ScalaInterpreter.scala:290) 
com.ibm.spark.utils.TaskManager$$anonfun$add$2$$anon$1.run(TaskManager.scala:123) 
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1153) 
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628) 
java.lang.Thread.run(Thread.java:785) 

Ich folgte dem Tutorial ziemlich genau, aber es scheint, ich habe etwas falsch gemacht. Alle Hinweise würden sehr geschätzt werden.

Dank

Antwort

2

verwendet Sie die falsche URL in das Gefäß, nicht blob nicht verwenden. Versuchen Sie, den rohen Pfad statt:

%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/raw/master/dep-jar/com.ibm.json4j_1.0.9.jar 

ich es ausprobiert haben, können Sie das Glas hinzufügen, aber Sie können ein Problem mit der Behauptung konfrontiert.

Falls es nicht funktioniert (zuvor falsche URL verwendet), starten Sie den Kernel oder benutzen Flag -f:

%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/raw/master/dep-jar/com.ibm.json4j_1.0.9.jar -f 
+0

Hallo @Sven. Dies funktioniert leider nicht. Trotzdem danke. Derselbe Fehler wie zuvor. –

+0

Sie müssen Ihren Kernel neu starten oder das Flag -f verwenden. –

+0

Der Neustart des Kernels hat den Job erledigt. Ich hatte die -f-Flagge vorher ohne Erfolg benutzt. Alle jetzt auftretenden Fehler scheinen spezifisch für meinen eigenen Code zu sein. Vielen Dank –

Verwandte Themen