當我試圖運行使用HDFS文件系統正常工作時,我提供以下特性紗模式火花應用。如何配置SparkContext爲啓用HA羣集
sparkConf.set("spark.hadoop.yarn.resourcemanager.hostname",resourcemanagerHostname);
sparkConf.set("spark.hadoop.yarn.resourcemanager.address",resourcemanagerAddress);
sparkConf.set("spark.yarn.stagingDir",stagingDirectory);
但與此有關的問題是:
- 由於我的HDFS啓用了NamdeNode HA當我提供spark.yarn.stagingDir HDFS的公共URL,它不會工作
例如hdfs://hdcluster/user/tmp/
給人一個錯誤,指出:
有未知的主機hdcluster
但是,當我把它的URL爲hdfs://<ActiveNameNode>/user/tmp/
它工作正常,但我們不提前,這將是積極的怎麼這麼知道我解決這個問題?
而且幾件事情我已經注意到有SparkContext需要Hadoop的配置,但SparkConfiguration類不會有任何的方法來接受Hadoop配置。
- 如何在資源管理器在運行HA我提供的資源管理器的地址?
請妥善編輯你的問題。把代碼放在'像這樣'的部分。沒有必要寫感謝和姓名到底。 – surajsn