2016-04-18 42 views
0

對不起,如果這是一個愚蠢的問題。我在一個Bluemix Spark實例的Scala Notebook中有一些簡單的代碼。我嘗試從GitHub的倉庫在教程(https://console.ng.bluemix.net/docs/services/AnalyticsforApacheSpark/index-gentopic2.html#developing_with_notebooks)指示的方式添加一個罐子爲什麼Bluemix中的%AddJar命令給出錯誤?

import scala.collection.breakOut 
%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/blob/master/dep-jar/com.ibm.json4j_1.0.9.jar 

的筆記本電腦輸出告訴我,下載完成但隨後拋出一個異常:

Starting download from https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/blob/master/dep-jar/com.ibm.json4j_1.0.9.jar 
Finished download of com.ibm.json4j_1.0.9.jar 
Out[30]: 
Name: java.lang.NullPointerException 
Message: null 
StackTrace: scala.reflect.io.ZipArchive$.fromFile(ZipArchive.scala:36) 
scala.reflect.io.ZipArchive$.fromFile(ZipArchive.scala:34) 
scala.reflect.io.AbstractFile$.getDirectory(AbstractFile.scala:48) 
scala.reflect.io.AbstractFile$.getDirectory(AbstractFile.scala:36) 
scala.tools.nsc.Global.scala$tools$nsc$Global$$matchesCanonical$1(Global.scala:920) 
scala.tools.nsc.Global$$anonfun$16.apply(Global.scala:924) 
scala.tools.nsc.Global$$anonfun$16.apply(Global.scala:924) 
scala.collection.Iterator$class.find(Iterator.scala:780) 
scala.collection.AbstractIterator.find(Iterator.scala:1157) 
scala.collection.IterableLike$class.find(IterableLike.scala:79) 
scala.collection.AbstractIterable.find(Iterable.scala:54) 
scala.tools.nsc.Global.scala$tools$nsc$Global$$assoc$1(Global.scala:924) 
scala.tools.nsc.Global$$anonfun$17.apply(Global.scala:933) 
scala.tools.nsc.Global$$anonfun$17.apply(Global.scala:933) 
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:251) 
scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:251) 
scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) 
scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:47) 
scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:251) 
scala.collection.AbstractTraversable.flatMap(Traversable.scala:105) 
scala.tools.nsc.Global.invalidateClassPathEntries(Global.scala:933) 
com.ibm.spark.interpreter.ScalaInterpreter.updateCompilerClassPath(ScalaInterpreter.scala:167) 
com.ibm.spark.interpreter.ScalaInterpreter.addJars(ScalaInterpreter.scala:90) 
com.ibm.spark.magic.builtin.AddJar.execute(AddJar.scala:121) 
sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:95) 
sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:55) 
java.lang.reflect.Method.invoke(Method.java:507) 
com.ibm.spark.utils.DynamicReflectionSupport.invokeMethod(DynamicReflectionSupport.scala:106) 
com.ibm.spark.utils.DynamicReflectionSupport.applyDynamic(DynamicReflectionSupport.scala:78) 
com.ibm.spark.magic.MagicExecutor.executeMagic(MagicExecutor.scala:32) 
com.ibm.spark.magic.MagicExecutor.applyDynamic(MagicExecutor.scala:21) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:52) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:57) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:59) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:61) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:63) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:65) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:67) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:69) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:71) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:73) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:75) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:77) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:79) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:81) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:83) 
$line144.$read$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:85) 
$line144.$read$$iwC$$iwC$$iwC$$iwC.<init>(<console>:87) 
$line144.$read$$iwC$$iwC$$iwC.<init>(<console>:89) 
$line144.$read$$iwC$$iwC.<init>(<console>:91) 
$line144.$read$$iwC.<init>(<console>:93) 
$line144.$read.<init>(<console>:95) 
$line144.$read$.<init>(<console>:99) 
$line144.$read$.<clinit>(<console>) 
$line144.$eval$.<init>(<console>:7) 
$line144.$eval$.<clinit>(<console>) 
$line144.$eval.$print(<console>) 
sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:95) 
sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:55) 
java.lang.reflect.Method.invoke(Method.java:507) 
org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1346) 
org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1$$anonfun$apply$3.apply(ScalaInterpreter.scala:296) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1$$anonfun$apply$3.apply(ScalaInterpreter.scala:291) 
com.ibm.spark.global.StreamState$.withStreams(StreamState.scala:80) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1.apply(ScalaInterpreter.scala:290) 
com.ibm.spark.interpreter.ScalaInterpreter$$anonfun$interpretAddTask$1.apply(ScalaInterpreter.scala:290) 
com.ibm.spark.utils.TaskManager$$anonfun$add$2$$anon$1.run(TaskManager.scala:123) 
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1153) 
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628) 
java.lang.Thread.run(Thread.java:785) 

我跟着教程非常緊密,但似乎我做錯了什麼。任何指針將不勝感激。

謝謝

回答

2

你使用了錯誤的URL到jar中,不要使用blob。 嘗試原始路徑,而不是:

%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/raw/master/dep-jar/com.ibm.json4j_1.0.9.jar 

我已經嘗試過了,你可以添加罐子,但你可能會面臨一個問題,有一個斷言。

如果它不能正常工作(以前使用錯誤的URL),重新啓動內核或使用-f標誌:

%AddJar https://github.com/IBM-Bluemix/cf-deployment-tracker-client-java/raw/master/dep-jar/com.ibm.json4j_1.0.9.jar -f 
+0

@Sven嗨。這不起作用。謝謝您的好意。與以前一樣的錯誤。 –

+0

您必須重新啓動內核或使用-f標誌。 –

+0

內核的重啓完成了這項工作。我以前一直使用-f標誌無濟於事。現在發生的任何錯誤似乎都與我自己的代碼有關。謝謝 –