2013-10-24 72 views
0

我想從eclipse上運行hadoop字數。但是我得到一個錯誤。我改變了輸出目錄,但程序行爲沒有改變。 你能不能幫我解決這個錯誤:地圖100%減少運行hadoop字數的0%

 2013-10-23 23:06:13,783 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - session.id is deprecated. Instead, use 
dfs.metrics.session-id 
2013-10-23 23:06:13,794 INFO [main] jvm.JvmMetrics (JvmMetrics.java:init(76)) - 
Initializing JVM Metrics with processName=JobTracker, sessionId= 
2013-10-23 23:06:13,829 INFO [main] jvm.JvmMetrics (JvmMetrics.java:init(71)) - Cannot 
initialize JVM Metrics with processName=JobTracker, sessionId= - already initialized 
2013-10-23 23:06:13,915 WARN [main] util.NativeCodeLoader (NativeCodeLoader.java: 
<clinit>(62)) - Unable to load native-hadoop library for your platform... using 
builtin-java classes where applicable 
2013-10-23 23:06:13,947 WARN [main] mapreduce.JobSubmitter 
(JobSubmitter.java:copyAndConfigureFiles(138)) - Hadoop command-line option parsing not 
performed. Implement the Tool interface and execute your application with ToolRunner to 
remedy this. 
2013-10-23 23:06:13,962 WARN [main] mapreduce.JobSubmitter 
(JobSubmitter.java:copyAndConfigureFiles(247)) - No job jar file set. User classes may not be found. See Job or Job#setJar(String). 
2013-10-23 23:06:13,978 WARN [main] snappy.LoadSnappy (LoadSnappy.java:<clinit>(46)) - 
Snappy native library not loaded 
2013-10-23 23:06:13,985 INFO [main] mapred.FileInputFormat 
(FileInputFormat.java:listStatus(233)) - Total input paths to process : 1 
2013-10-23 23:06:14,107 INFO [main] mapreduce.JobSubmitter 
(JobSubmitter.java:submitJobInternal(368)) - number of splits:1 
2013-10-23 23:06:14,167 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred.output.value.class is 
deprecated. Instead, use mapreduce.job.output.value.class 
2013-10-23 23:06:14,168 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred.job.name is deprecated. 
Instead, use mapreduce.job.name 
2013-10-23 23:06:14,169 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred.input.dir is deprecated. 
Instead, use mapreduce.input.fileinputformat.inputdir 
2013-10-23 23:06:14,169 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred.output.dir is deprecated. 
Instead, use mapreduce.output.fileoutputformat.outputdir 
2013-10-23 23:06:14,169 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred.map.tasks is deprecated. 
Instead, use mapreduce.job.maps 
2013-10-23 23:06:14,170 WARN [main] conf.Configuration 
(Configuration.java:warnOnceIfDeprecated(816)) - mapred 

和MyHadoopDriver是:

package org.orzota.bookx.mappers; 

import org.apache.hadoop.fs.Path; 
import org.apache.hadoop.io.*; 
import org.apache.hadoop.mapred.FileInputFormat; 
import org.apache.hadoop.mapred.FileOutputFormat; 
import org.apache.hadoop.mapred.JobClient; 
import org.apache.hadoop.mapred.JobConf; 
import org.apache.hadoop.mapred.Mapper; 
import org.apache.hadoop.mapred.Reducer; 
import org.apache.hadoop.mapred.TextInputFormat; 
import org.apache.hadoop.mapred.TextOutputFormat; 

public class MyHadoopDriver { 

public static void main(String[] args) { 
    JobClient client = new JobClient(); 
    JobConf conf = new JobConf(
      org.orzota.bookx.mappers.MyHadoopDriver.class); 
    conf.setJobName("BookCrossing1.0"); 


    // TODO: specify output types 
    conf.setOutputKeyClass(Text.class); 
    conf.setOutputValueClass(IntWritable.class); 

    // TODO: specify a mapper 
    conf.setMapperClass(org.orzota.bookx.mappers.MyHadoopMapper.class); 

    // TODO: specify a reducer 
    conf.setReducerClass(org.orzota.bookx.mappers.MyHadoopReducer.class); 
    ///////////////////////////////////////////// 
    conf.setInputFormat(TextInputFormat.class); 
    conf.setOutputFormat(TextOutputFormat.class); 

    /////////////////////////////////////////////// 
    FileInputFormat.setInputPaths(conf, new Path(args[0])); 
    FileOutputFormat.setOutputPath(conf, new Path(args[1])); 

    //////////////////////////////////////////////// 
    client.setConf(conf); 
    try { 
     JobClient.runJob(conf); 
    } catch (Exception e) { 
     e.printStackTrace(); 
    } 
} 

} 
+0

您需要向我們展示一些代碼,最好是您設置所有工作類的主要位置。 – DDW

+0

也可能存在版本衝突,因爲我看到很多棄用警告。你安裝了哪個版本的hadoop,以及你使用了哪個wordcount代碼,如果它們不匹配,你可能會看到奇怪的錯誤。 – DDW

+0

我的hadoop版本是1.0.4,但我不知道wordcount版本..我認爲這不重要。 – Asma

回答

1

有在Hadoop的代碼庫2個FileOutputFormat類,你選擇了棄用之一。

無處不在你有「org.apache.hadoop.mapred」,你應該使用「org.apache.hadoop.mapreduce」。我敢打賭,這會讓你更加接近工作。

+0

是這樣的,JobClient類表明她始終如一地使用舊API(不贊成使用它並不重要,它會繼續支持)要查看兩個API之間的區別,她可以看看: http://www.slideshare.net/sh1mmer/upgrading-to-the-new-map-reduce-api 但我同意你的看法,如果你可以的話,你應該使用新的API,但我不確定這是否會解決所有問題,另一方面日誌只包含警告和沒有錯誤。 – DDW

+0

感謝幫助朋友。它工作非常感謝 – Asma

0

你可以試試這個,這個是新的API,很容易理解。

Wordcount example與新的API。

如果你真的要堅持舊的API看看here 什麼是真正重要的是你用Toolrunner.run(..)啓動應用程序,我的猜測是,你沒有,因爲你的代碼是在主函數。