hadoop-2.7.2

    1熱度

    1回答

    使用Hadoop的Apache 2.7.1在CentOS 7 IAM,我想用webhdfs命令 curl -i -x DELETE "http://192.168.25.21:50070/webhdfs/v1/hadoophome/file1/?user.name=root&op=DELETE&recursive=true" 刪除文件(文件1),但IAM越來越 curl: (5) Could

    0熱度

    1回答

    我剛剛開始使用Pig學習,爲此我在Ubuntu 14.04 LTS上使用Pig版本0.16.0安裝了僞分佈式Hadoop 2.7.2。以下是我的配置,豬和Hadoop - 文件:.bashrc中 #=============================================================== # Hadoop Variable List export JAVA

    0熱度

    1回答

    我遵循Apache Hadoop安裝鏈接,並可能與PIG一起安裝。他們都工作正常。 以下是配置: 的Hadoop:2.7.2 蜂巢:2.1.0 機:Ubuntu的LTS 14.04 64位 的Java:第9版 現在我試圖安裝的Apache根據蜂巢2.1.0到這個鏈接[https://cwiki.apache.org/confluence/display/Hive/AdminManual+Insta

    0熱度

    2回答

    安裝的Hadoop 2.7.1在Ubuntu 15.10 一切工作正常,只有當我打JPS,我可以看到除了namenode以外的所有惡魔。 在啓動它顯示: - su: /home/hduser/../libexec/hadoop-config.sh: No such file or directory 當我GOOGLE了它,我才知道,我可以忽略這一點,因爲我的 <property> <na

    1熱度

    1回答

    我在嵌入式德比Metastore的系統上首次安裝配置單元,但它不起作用。它顯示了下面提到的錯誤。 Caused by: javax.jdo.JDOFatalInternalException: The java type java.lang.Long (jdbc-type="",sql-type="") cant be mapped for this metastore.No mapping is

    3熱度

    1回答

    有人能幫助我理解JVM和YARN中容器之間的關係嗎? 如何創建JVM,它是每個任務的一個JVM嗎?多個任務可以同時在同一個JVM中運行? (我知道ubertasking許多任務(maps/reduce)可以在同一個JVM中依次運行)。 它是每個容器的一個JVM嗎?或單個JVM中有多個容器?或者JVM和容器之間沒有關係? 當資源管理器爲作業分配容器時,同一作業中的多個任務是否對同一節點中運行的任務使

    0熱度

    1回答

    我嘗試訪問網址爲namenode的網址爲namenode IP。它拋出了一個錯誤HTTP ERROR 404Problem accessing /dfshealth.jsp. Reason: NOT_FOUND 我能夠訪問Namenode網址與主機名。 /etc/hosts文件: 127.0.0.1 localhost 192.168.10.103 impc2390 192.168.1

    -2熱度

    1回答

    我已經在Windows 8上安裝了Oracle虛擬框,並且想要與多個節點進行集羣。 - 創建一個主節點 - 創建了兩個從屬節點 現在對於羣集,因爲它需要所有節點的IP地址,但在我的情況下,它顯示了所有的節點相同的IP。 [使用ifconfig命令查看IP,對於安裝在VM 10.0.2.15上的所有節點都是相同的] 如何爲每個節點獲取不同的IP?這真的需要嗎?或者我可以繼續使用相同的IP?

    0熱度

    1回答

    我安裝了一個四節點hadoop集羣。在hadoop Webui我可以看到所有的datanode和namenode已啓動並正在運行。但是當我在配置單元中運行select count(*) from table_name;時,查詢正在卡住。 hive> select count(*) from test_hive2; Query ID = dssbp_20160804124833_ff269da1-

    0熱度

    1回答

    我無法從pyspark窗口 schemaPeople = spark.createDataFrame(people) 我已經設置HADOOP_HOME到winutils 我提供77權限到C執行下面的命令:/ tmp目錄/蜂房 不過我提示以下錯誤: - Py4JJavaError: An error occurred while calling o23.applySchemaToPythonRD