2016-06-28 33 views
0

我正在使用下面的代碼。哪個jar需要用於scala的org.apache.spark.sql.SQLContext在eclipse中

import org.apache.spark.SparkContext 
import org.apache.spark.sql.SQLContext 

object SqlContextSparkScala { 

def main (args: Array[String]) { 
    val sc =SparkContext 
    val sqlcontext = new SQLContext(sc) 
    } 

} 

我得到錯誤,如spark不是org.apache的成員。 我在eclipse IDE中編寫這個java代碼,請建議適當的jar。

+0

你有沒有跟着任何關於如何建立星火指南和Eclipse?例如,http://freecontent.manning.com/wp-content/uploads/how-to-start-developing-spark-applications-in-eclipse.pdf –

回答

0

如果您正在使用maven請在下面提及的依賴性請包括火花core_2.10-1.4.1.jar

 <dependency> 
     <groupId>org.apache.spark</groupId> 
     <artifactId>spark-core_2.10</artifactId> 
     <version>1.4.1</version> 
    </dependency> 
相關問題