2017-01-25 89 views
-1

我是斯卡拉新手。 任何人都可以告訴我在Linux環境下運行Scala所需的jar文件是什麼。下面的代碼是一段原始代碼。我收到異常例如java.lang.NoSuchMethodError:org.jboss.netty.channel.socket.nio.NioWorkerPool。(Ljava/util/concurrent/Executor; I)VApache Spark和Scala需要罐子

java -cp「。:/ opt/Cloudera的/包裹/ CDH-5.7.1-1.cdh5.7.1.p1876.1944 /瓶/ :./

TestAll.scala

import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkContext 
import org.apache.spark.SparkConf 
import org.apache.spark.sql.SQLContext 
import java.io._ 
import java.sql.{Connection,DriverManager} 
import scala.collection._ 
import scala.collection.mutable.MutableList 
object TestAll { 
    def main(args: Array[String]) { 
    val conf =new SparkConf().setAppName("Testing App").setMaster("local") 
    val sc=new SparkContext(conf) 
     println("Hello, world!") 
    } 
    } 
+4

歡迎來到SO,請快速瀏覽(http://stackoverflow.com/tour)看看如何問好題。 – ckruczek

回答

0

你需要從here下載的火花。選擇「使用Hadoop預先構建」選項。然後你可以按照Quick Start的指示。這會讓你通過Hello World。我不確定你正在使用哪個IDE,但對斯卡拉最友好的是Intellij IDEA

+0

我正嘗試在Linux命令行中執行。 – user3719368

+0

您可以使用wget下載Spark – orestis