2017-02-03 53 views
-2

您好我已經實現了我的平均字數在Java中的Cloudera VM 4.2.1 P和我已經轉換成JAR文件,運行命令:Hadoop的罐子averagewordlength.jar stubs.AvgWordLength莎士比亞wordleng的Hadoop Cloudera的在VMware的路徑

下一頁:我已經正確運行莎士比亞,無法運行我的文件(我創建了:newfile)。它拋出一個異常:在線程

異常 「主」 org.apache.hadoop.mapreduce.lib.input.InvalidInputException:輸入 路徑不存在:HDFS://0.0.0.0:8020 /用戶/培訓/新文件在 org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus(FileInputFormat.java:231) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits(FileInputFormat。的java:248) 在 org.apache.hadoop.mapred.JobClient.writeNewSplits(JobClient.java:1064) 在 org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1081) at org.apache.hadoop.mapred.JobClient.access $ 600(JobClient.java:174) at org.apache.hadoop.mapred.JobClient $ 2.run(JobClient.java:993)at org.apache.hadoop。 mapred.JobClient $ 2.run(JobClient.java:946)at java.security.AccessController.doPrivileged(Native Method)at javax.security.auth.Subject.doAs(Subject.java:396)at org.apache。 hadoop.security.UserGroupInformation.doAs在 org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java)(UserGroupInformation.java:1408)

請指導在哪條路徑來粘貼的newfile用於檢查我的解決方案

回答

0

似乎你的Hadoop配置不正確。

hdfs://0.0.0.0是不是一個有效的地址

Cloudera的VM 4.2.1?嘗試下載更新CDH 5.x的VM

0

我的命令得到了它

Hadoop的FS -put了localPath