0
有沒有辦法在SparkConf中設置編碼?我正在構建一個處理阿拉伯數據的Spark應用程序。當我在Spark Master設置爲Local [*]的開發環境中運行它時,數據處理正確。但是,當我準備JAR並將其提交給Spark Cluster時,數據似乎需要編碼。
我用:Java Spark數據編碼
--conf spark.driver.extraJavaOptions=-Dfile.encoding=UTF-8
在星火配置提交,但沒有奏效。
操作系統:Windows 10 爪哇1.8.0.131
火花2.1.0
感謝您的回覆。我用環境細節更新了我的問題。 –