0
我想管我的hadoop流作業。 例如我已經運行命令 的hadoop罐子Hadoop的streaming.jar -mapper map1.py -reducer reducer.py - 輸入XX -output/OUTPUT1管道命令行hadoop流作業
但是我想使用從步驟一個輸出作爲我的第二步mapreduce作業的輸入而不存儲在hdfs中可能會輸出爲stdout。 有沒有像linux管道的東西? 如 hadoop jar hadoop-streaming.jar -mapper map1.py -reducer reducer.py -input xx | Hadoop的罐子Hadoop的streaming.jar -mapper map2.py -reducer reducer2.py - 輸出/輸出