2012-05-31 222 views
2

我想在我的Ubuntu上安裝Hive。我的文章this文章幫助我很多。我完成了除第4步之外的所有步驟。我不明白這一步應該做什麼。在Ubuntu上安裝Hive

請你詳細解釋一下這一步嗎?

回答

2

第3步沒有順利嗎?回到第3步,您將從SVN下載二進制文件到您的機器,第4步是使用您的Hadoop環境設置二進制文件。

第4步建議你如下:

出口PATH = $ PATH:/ usr/src目錄/蜂房/建設/距離/斌/

- >表示要添加目錄/ usr/src目錄/ hive/build/dist/bin /在您的PATH環境中。您必須在此文件夾中安裝配置單元 - >/usr/src/hive/build/dist/bin /,因此在您的路徑中添加此文件夾(實際上是Hive Binaries)可讓您在機器中運行Hive。

出口PATH = $ PATH:/ usr/src目錄/蜂房/建設/距離/ lib中/

- >表示要添加目錄/ usr/src目錄/蜂房/編譯/距離/ lib中/在你的PATH環境。當你在你的機器上安裝Hive時,與Hive相關的庫位於此文件夾>/usr/src/hive/build/dist/lib /中,因此將此目錄添加到PATH中,將有助於Hive成功運行。

出口PATH = $ PATH:在/ usr /本地/ Hadoop的/ bin中

- >如果您已經Hadoop的在你的機器上運行,這應該已經設置,否則該命令只設置Hadoop的二進制文件夾中的機器路徑。

如果你不知道什麼是PATH,只需在網絡上查找「PATH in Linux」即可。

+0

感謝您的回答。我在此路徑中安裝了我的Hive **下載/配置單元/ **然後我應該更改導出命令path.did我得到正確嗎? – Baper

+1

你確定嗎?我認爲你沒有安裝,我認爲你只是下載它。安裝主要在/ usr/*位置完成,所以我不確定。如果您只是嘗試在/ downloads/hive /中找到配置單元二進制文件,並且如果找到,那麼您可以將該文件夾添加爲/ downloads/hive/build/dist/bin到您的路徑中。 – AvkashChauhan

+0

謝謝Avkash :)說實話,我改變了PATH命令,並將其改爲/ home/babak/Downloads/hive/build/dist/bin。然後我得到這樣的java錯誤**/home/babak/Downloads /hadoop/bin/../bin hadoop:第258行:/usr/lib/j2sdk1.5-sun/bin/java:文件或文件夾未找到** Hive二進制文件?它是什麼? – Baper

5

步驟1:下載和解壓的Hadoop

步驟2:設置JAVA_HOME路徑CONF/hadoop-env.sh //這一步是設置java的路徑的hadoop

步驟3:CONF /芯-site.xml:

<configuration> 
    <property> 
    <name>fs.default.name</name> //Place your home folder here for using hadoop 
    <value>hdfs://localhost:9000</value> 
    </property> 
</configuration> 

步驟4:CONF/HDFS-site.xml中:

<configuration>   //This setting for the number of replications of the file or you can add data node for the save the file 
    <property> 
    <name>dfs.replication</name> 
    <value>1</value> 
    </property> 
</configuration> 

步驟5:CONF/MAPR ED-現場。XML:

<configuration> 
    <property> 
    <name>mapred.job.tracker</name> 
    <value>localhost:9001</value>  // add your master host in the place of localhost here 
    </property> 
</configuration> 

第6步:登錄SSH本地主機和格式化新的分佈式文件系統

bin/hadoop namenode -format 

第7步:啓動Hadoop守護進程:

bin/start-all.sh 

第8步:檢查的NameNode &港口以下的JobTracker

http://localhost:50070/  //master 
http://localhost:50030/  //slave 

//它也是不如試試SSH進行檢查你的工作節點

第9步:下載並解壓蜂巢

第10步:設置以下信封變量。

export HADOOP_HOME=<hadoop-install-dir> 
export HIVE_HOME=<hive-install-dir> 
export PATH=$HIVE_HOME/bin:$PATH 
$HIVE_HOME/bin/hive 
0

This PPA使得在Ubuntu上安裝Hive變得非常簡單。