我們正在運行6節點集羣開始DSE:無法使用SPARK_ENABLED = 1
HADOOP_ENABLED=0
SOLR_ENABLED=0
SPARK_ENABLED=0
CFS_ENABLED=0
現在,我們想星火添加到所有的人。這似乎是「增加」不是正確的術語,因爲這不會失敗。不管怎麼說,我們已經做了步驟:1. 排水節點 2.改變的/ etc /默認/ DSE到SPARK_ENABLED = 1和HADOOP_ENABLED = 0 3.須藤服務DSE重啓
之一,得到了以下在日誌:
錯誤[主] 2016年5月17日11:51:12739 CassandraDaemon.java:294 - 初始化 org.apache.cassandra.exceptions.ConfigurationException過程中的致命異常:無法啓動,如果打小報告的節點數據中心(Analytics)與以前的數據中心(Cassandra)不同。請修復snitch配置,停用並重新啓動此節點,或者使用標誌-Dcassandra.ignore_dc = true。
有跡象表明,已經被回答了兩個相關的問題:
- Unable to start solr aspect of DSE search
- Two node DSE spark cluster error setting up second node. Why?
不幸的是,清除節點上的數據是不是一種選擇 - 我爲什麼會去做?我需要的數據是完整的。
使用「-Dcassandra.ignore_rack = true -Dcassandra.ignore_dc = true」是有點可怕的生產。我不明白爲什麼DSE想要創建另一個DC,爲什麼它不能使用現有的DC?
我知道根據datastax的文檔,我們應該使用不同工作負載的不同DC來分割負載。在我們的例子中,我們只想在與Cassandra使用相同DC運行的相同節點上運行SPARK作業。
這可能嗎?
謝謝!
美麗,像一個魅力工作。對改變這個告密者有點懷疑,但它解決了。謝謝! – Pavel
:)將snitch改爲GPFS幾乎總是設置您的prod羣集的正確方式。 – RussS