0
我的代碼,試圖解析一個簡單的CSV文件看起來是這樣的:阿帕奇星火找不到類CSVReader
SparkConf conf = new SparkConf().setMaster("local").setAppName("word_count");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> csv = sc.textFile("/home/user/data.csv");
JavaRDD<String[]> parsed = csv.map(x-> new CSVReader(new StringReader(x)).readNext());
parsed.foreach(x->System.out.println(x));
然而,星火工作帶班未發現異常說CSVReader
無法找到結束。我的pom.xml
看起來像這樣:
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>com.opencsv</groupId>
<artifactId>opencsv</artifactId>
<version>3.8</version>
<scope>provided</scope>
</dependency>
</dependencies>
我該如何解決這個問題?
嗯......你在運行時_provide_所需的庫? – Seelenvirtuose
備註 - Spark 1.1.0是一個非常舊的版本。當前版本是2.0.0。 –
@Seelenvirtuose我不知道該如何回答。我是Maven的新手。我的理解是'提供'會導致JAR被下載並隨最終JAR一起發佈。 :/ –