我在~/.bashrc
運行HBase的MapReduce工作給予HBaseConfiguration NoClassDefFoundError的例外
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/lcoal/Hbase/lib/hbase-client-1.2.4.jar
設置變量,但是當我編譯代碼
java -cp $HADOOP_CLASSPATH:/home/hadoopuser/Downloads/myjar.jar com.bigdata.uniquecoder.WordCountClass
它仍然給了我這個錯誤。
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
at com.bigdata.uniquecoder.WordCountClass.main(WordCountClass.java:57)
Caused by:java.lang.ClassNotFoundException:org.apache.hadoop.hbase.HBaseConfiguration at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357) ... 1 more
注:當我在Eclipse中運行,但在Hadoop之上運行時,給出了這樣的錯誤,它工作正常。 任何幫助將不勝感激。
是在這裏一個錯字'在/ usr /的lcoal使用下面的命令
export
/...'或者是在'〜/ .bashrc'一樣嗎? – franklinsijo它與〜/ .bashrc中的相同 –
它應該是'/ usr/local /'...... – franklinsijo