我試圖通過hdfs複製數據。但沒有任何命令不適合我。無法使用hdfs dfs命令複製hdfs中的數據
我跟着online tutorial安裝單個節點羣集。它正確安裝,因爲$jsp
命令顯示我所有的6個工作。但是當我試圖將文件複製到hdfs時顯示錯誤。
我運行的命令是
[email protected]:~$ hdfs dfs -copyFromLocal /home/nare/Desktop/data/first.txt /app/hadoop/tmp
錯誤 14/12/30 02:18:09 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable copyFromLocal: '/app/hadoop/tmp': No such file or directory
我已經給所有的權限,輸入文件(first.txt)
[email protected]:~$ ls -al /home/naren/Desktop/data total 3612 drwxrwxr-x 2 naren naren 4096 Dec 30 01:40 . drwxr-xr-x 3 naren naren 4096 Dec 30 01:40 .. -rwxrwxrwx 1 naren naren 674570 Dec 30 01:37 first.txt -rwxrwxrwx 1 naren naren 1423803 Dec 30 01:39 second.txt -rwxrwxrwx 1 naren naren 1573151 Dec 30 01:40 third.txt
對hdfs文件夾的權限也對我來說是正確的
[email protected]:~$ ls -l /app/hadoop total 4 drwxr-x--- 5 hduser hadoop 4096 Dec 26 01:22 tmp
我是新來的Hadoop和Linux,結果被困在這裏。 我也試圖與
[email protected]:~$ hadoop fs -mkdir -p /user/hduser/sample
創建新的目錄,並沒有創造任何目錄我。
請讓我知道我要去哪裏錯了。
在此先感謝!
的Hadoop版本:Hadoop 2.5.2
OS:Ubuntu 14.04
您能否將錯誤消息添加到您的hadoop fs -mkdir命令以及添加您的核心站點和hdfs站點xml配置?他們會很有幫助,看看你是否正確配置hdfs。 – snkherv
'hadoop fs -mkdir'不會給我任何錯誤只有Hadoop棄用的消息,當我'hdfs dfs mkdir'沒有錯誤。但目錄未創建。 – imbatman
核心站點和hdfs-site.xml與http://www.bogotobogo.com/Hadoop/BigData_hadoop_Install_on_ubuntu_single_node_cluster.php – imbatman