我有十個sevrers,他們每個人每天都會生成大約3G的日誌文件。我完成了hadoop教程,並在每臺機器上安裝了每個hadoop(HDFS)。我想要的是使用map-reduce來分析這些日誌。Hadoop處理多個節點的日誌
我的問題是如何啓用日常日誌中的MP在hadoop?目前,服務器A,我手動複製日誌文件到HDFS目錄:
>hadoop fs -put local_log_path /A/log_20170219.1
然後
>hadoop jar MR_path MP_driver_class /A/log_20170219.1 output_path.
是否有其他更有效的辦法,這樣我就不必去各服務器,並手動將新生成的日誌複製到DFS系統?命令fs -put
確實涉及大型數據文件在這裏移動嗎?