2017-01-26 80 views
0

我想在Hadoop FS中複製本地文件。我運行這個命令:hadoop將本地文件複製到Hadoop SF錯誤

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode 

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode 

即使我運行:hdfs dfs -ls

我得到這個錯誤:

> WARN util.NativeCodeLoader: Unable to load native-hadoop library for 
> your platform... using builtin-java classes where applicable 
> copyFromLocal: `.': No such file or directory 

我不知道爲什麼我得到這個錯誤?請任何想法嗎?

+0

1)嘗試執行'hadoop version'命令...發佈輸出。 2)修復'hdfs dfs -ls'命令的輸出,因爲你在問題中提供的輸出與'-ls'命令無關...... – Serhiy

+0

@Serhiy和'hdfs dfs -ls': 'sara @ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -ls 17/01/26 15:59:09 WARN util.NativeCodeLoader:無法爲您的平臺加載native-hadoop庫.. 。在適用的情況下使用內建java類 ls:'。':沒有這樣的文件或目錄' – Sasa88

+0

執行'hadoop fs -ls /'並檢查是否沒有錯誤。 – Serhiy

回答

1

根據你的輸入你的Hadoop安裝似乎工作正常。有什麼錯,hadoop fs -copyFromLocal期望目錄HDFS目錄作爲目標目錄,但不是Hadoop存儲塊的本地目錄。

所以在你情況下命令應該像(例如):

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/ 

sampleDir是你hadoop fs -mkdir命令創建的目錄。

+0

確切的是它的工作原理。我也運行:'hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt/in'這樣,所有用戶都可以訪問該文件。謝謝你的幫助。 – Sasa88