按照Spark on Mesos docs一個需要的spark.executor.uri指向設置爲星火分佈在使用星火時: val conf = new SparkConf()
.setMaster("mesos://HOST:5050")
.setAppName("My app")
.set("spark.executor.uri", "<path to spark-
我已經爲Apache Airavata創建了兩個碼頭集裝箱。假設它們是容器A和容器B.容器B依賴於容器A.啓動容器A後,我必須將A的IP地址作爲環境變量提供給容器B.現在,容器B的啓動腳本將對配置文件進行更改對於容器B.在此更改後,容器B可以與容器A進行通信。 當我在本地docker環境中進行設置時,手動創建了容器並在容器創建期間傳遞了所需的值。 docker run -i -d --name p
我已經建立了一個多節點的Hadoop集羣,然後我開始學習mesos和運行mesos集羣Hadoop上的能力,所以這裏是我的問題: 1) Should I run hadoop on mesos cluster? or it doesn't matter.
2) What is the difference between them?