ambari

    0熱度

    2回答

    我使用Apache Ambari在4節點上安裝了Apache Hadoop。我寫了一篇Apache Flink的簡單工作。我想將這份工作提交給我的YARN集羣。但Flink需要在本地計算機上使用YARN配置文件(core-site.xml,yarn-site.xml等)。所以,如果我不misunterstand,有兩種方式曼努埃爾ResourceManager的節點上 開始弗林克工作(尋找配置文件

    1熱度

    1回答

    我們有3個節點,並試圖設置hdfs和ambari的關鍵hawq,我已經爲所有3臺機器啓用了無密碼ssh,但是當我啓動hawq服務時,我得到了「Setting up無密碼ssh失敗的所有HAWQ主機「此錯誤請幫助解決此問題。 enter image description here

    0熱度

    1回答

    我正在學習Hortonworks的基本知識和運行一個小型集羣具有以下規格: 3 Amazon EC2的節點(每個既是數據節點和名稱節點) 設置通過Ambari 節點1有(安裝硬盤) 現在,將/ mnt/vol1添加到dfs.datanode.data.dir(通過Ambari)時,每個節點都會獲得vol1目錄的副本,即使他們不存在。將塊存儲在其他datanode的這些目錄中嗎?我怎麼才能爲單個da

    1熱度

    1回答

    我在YARN中執行了一些配置單元作業,因此在Yarn中,如果列出應用程序,我會看到一些HIVE應用程序和相應的Templeton應用程序。那麼,在Ambari中,我如何看到運行HIVE應用程序的實際HIVE查詢? Ambari會爲此提供任何選擇嗎?

    1熱度

    1回答

    我的目標是在我們的Hadoop集羣上運行應用程序,而無需將顯式配置放入每個應用程序。因此,我試圖將羣集的配置放入ENV變量並將它們傳播到羣集中的每個節點。 比如我定義: export HIVE2_JDBC_URL=jdbc:hive2://localhost:10000 到以後使用這樣的: beeline -u $HIVE2_JDBC_URL/<db_name> -e "SELECT * FR

    -1熱度

    1回答

    任何人都可以請讓我知道如何使用Ambari安裝普通hadoop多節點集羣(而非HDP,Cloudera)的分步說明。我試過谷歌,但沒有得到任何幫助。 感謝 拉夫古普塔

    1熱度

    2回答

    我想讓Ambari構建一個平臺來測試火花上的某些功能。 我使用Win 10 + Hyper-V創建兩個安裝了CentOS 7的虛擬機(mercury.gc和venus.gc)。 Ambari 2.2.2.0安裝在一個VM(mercury.gc)上並嘗試使用它來配置這些虛擬機兩個虛擬機。運行確認主機時,兩個退貨進度都失敗。以下是從一臺機器的日誌: Connection to mercury.gc c

    0熱度

    1回答

    有沒有辦法在運行CentOS的Hortonworks虛擬機下批量上傳文件到Hadoop?我看到我可以使用Ambari - Sandbox的HDFS文件工具,但只允許一個接一個地上傳。顯然你可以在過去使用Redgate's HDFS Explorer,但它不再可用。 Hadoop是用來處理大數據的,但荒謬的是必須逐個上傳所有文件... 謝謝!

    1熱度

    1回答

    我知道使用下面的屬性來設置紗線內存和vcores: yarn.nodemanager.resource.memory-MB yarn.nodemanager.resource.cpu-vcores 我有具有以下配置中的節點的異質紗簇: 節點1(8cores,16GB RAM) 節點2(8cores,16GB RAM) 節點3(32cores,64GB RAM) 節點4(32cores,64GB R

    0熱度

    1回答

    我已經使用ambari在spark-env.sh中設置了PYSPARK_PYTHON = python3,並且當我在命令行中嘗試'pyspark'時,它使用python 3.4.3 。但是,當我使用yarn cluster模式提交作業時,它使用python 2.7.9運行。我如何使它使用python3?