我試圖在Hadoop上運行二次篩選算法的map reduce實現。爲此,我使用Netbeans的karmasphere Hadoop社區插件。該程序使用插件工作正常。但是我無法在實際的集羣上運行它。 我運行此命令在Hadoop集羣上運行mapreduce jar
bin/hadoop jar MRIF.jar 689
凡MRIF.jar是通過構建NetBeans項目和689是被考慮號碼的jar文件。輸入和輸出目錄在程序中是硬編碼的。當在實際集羣上運行時,看起來內部Java類沒有被處理,因爲在地圖自身爲0%之前,reduce會完成到100%。輸入和輸出文件是在沒有內容的情況下創建的。
但是,使用Karmasphere插件運行時可以正常工作。
似乎有一些問題,同時打開了writing.What該文件可以在這種情況下做什麼? – 2011-04-15 05:07:03
@Anurag:有什麼問題?需要更多的信息來解決人們能夠提供幫助的問題。有很多可能性,你可以提供的細節越多,人們願意並且能夠提供幫助的可能性就越大。 – Nija 2011-04-15 15:57:12
查看包含所需jar的zip文件。我試圖只用傳統方法(不是自述文件中給出的方法)來運行它。 http://code.google.com/p/mapreduce-integer-factorization/downloads/detail?name=mrif.zip&can=2&q= – 2011-04-16 06:31:32