我在Windows上安裝了本地火花1.5.2(hadoop 2.4)安裝,解釋here。Apache火花外殼錯誤導入罐
我想導入我使用maven在jar中創建的jar文件(jar是jmatrw,我上傳到github上的here)。請注意,該jar不包含spark程序,並且它沒有依賴關係來觸發。我嘗試以下步驟,但似乎沒有人在我的安裝工作:
- 我「E複製庫:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw- v0.1-beta.jar「
- 編輯spark-env.sh並添加SPARK_CLASSPATH =」E:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta的.jar」
- 在命令窗口中我跑
> spark-shell --jars "E:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta.jar"
,但它說‘警告:跳過遠程罐子’ - 在當我鍵入
scala> import it.prz.jmatrw.JMATData
,火花外殼採用error: not found: value it
回答說:「加入罐子......時間戳INFO」
火花殼我試圖做scala> sc.addJar("E:/installprogram/spark-1.5.2-bin-hadoop2.4/lib/jmatrw-v0.1-beta.jar")
,它說。
我花了很多時間在Stackoverflow和谷歌上搜索,確實類似的Stakoverflow問題是here,但我仍然無法導入我的自定義jar。
由於
我在'spark-defaults.conf'文件中添加了設置'spark.driver.extraClassPath',它工作正常!實際上,SPARK_CLASSPATH在Spark 1.0+中已棄用,正如火花日誌警告中所建議的那樣。感謝您花時間閱讀和回答我的問題。 –