我現在看Spark Github的github存儲庫。在類ALS.scala我嘗試瞭解如何組織import語句。如果我做Scala中的一個新項目,並嘗試做我的主人斯卡拉類的import語句,我可以做下輸入:在Scala中導入statemets
import java.{util => ju}
import java.io.IOException
import scala.collection.mutable
import scala.reflect.ClassTag
import scala.util.Sorting
import scala.util.hashing.byteswap64
無論如何,如果我嘗試做一個Spark進口(例如PARAM) :
import com.github.fommil.netlib.BLAS.{getInstance => blas}
import org.apache.hadoop.fs.Path
import org.json4s.DefaultFormats
import org.json4s.JsonDSL._
import org.apache.spark.{Dependency, Partitioner, ShuffleDependency, SparkContext}
import org.apache.spark.annotation.{DeveloperApi, Since}
import org.apache.spark.internal.Logging
import org.apache.spark.ml.{Estimator, Model}
....
我得到一個警告消息:
對象{阿帕奇,gizhub,json4s}不是封裝組織的成員
我已經從本地機器上的Github存儲庫下載了一個Spark包。看完後,我在硬盤上找到了一些本地訂單。例如在存儲庫:
/home/usr/spark/mllib/src/main/scala
我
/org/apache/spark/ml/param
我的問題是,我怎麼能組織此文件夾的進口在我的Scala程序?對不起,我是Scala的新手,目前無法理解Eclipse中Scala的導入組織...
非常感謝。我已經完成了一些你的觀點。你的指導看起來很有希望。我會盡全力去做。感謝 – Guforu
一些小問題,我已經在.bashrc中使用路徑定義安裝了Hadoop(我使用的是Ubuntu)。我可以通過步驟6和7嗎?我也可以給我完整的安裝清單。主要問題是隻有Scala – Guforu
如果你需要更多的讓我知道;-)我也是一個階段的Scala/Spak的新手! – Paul