我有一個非常簡單的應用程序,它試圖使用spark從/ src/main/resources中讀取一個orc文件。我不斷收到此錯誤:enableHiveSupport在java中引發錯誤代碼
Unable to instantiate SparkSession with Hive support because Hive classes are not found.
我曾嘗試加入依賴
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.0.0</version>
</dependency>
如下建議:Unable to instantiate SparkSession with Hive support because Hive classes are not found
然而,不管我已經添加了什麼,我仍然得到這個錯誤。
我正在通過NetBeans IDE在本地Windows計算機上運行此操作。
我的代碼:
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.*;
public class Main {
public static void main(String[] args) {
SparkSession spark = SparkSession
.builder()
.enableHiveSupport()
.appName("Java Spark SQL basic example")
.getOrCreate();
Dataset<Row> df = spark.read().orc("/src/main/resources/testdir");
spark.close();
}
}
您可以暫時離開NetBeans IDE,構建包(使用'sbt package'或類似的方法)和'spark-submit'嗎?看起來像Netbeans IDE不是Spark的問題。 –