0
A
回答
2
您有幾種選擇:
- 使用cron作業。
- 如果你想讓這個更復雜,你可以使用Apache Oozie來安排你的工作。
- 如果您希望以分佈式,可靠和容錯的方式完成此任務,則可以使用Apache Flume。使用Flume,您甚至可以直接從數據源編寫自定義流量源來收集數據,而無需首先將數據聚合到本地FS,然後將其移至HDFS。
相關問題
- 1. 以高吞吐量在HDFS上流式傳輸數據
- 2. 在HDFS上寫入會弄亂數據
- 3. 將HDFS數據流式傳輸到Storm(又名HDFS噴口)
- 4. 何處上傳hdfs文件?
- 5. 上傳文件到hadoop hdfs?
- 6. 使用Java API將數據上傳到HDFS
- 7. 上傳/插入數據到HDFS時涉及映射器reducer嗎?
- 8. Jcascalog查詢HDFS上的節儉數據
- 9. 遞增更新HDFS上的數據
- 10. 從集羣上的HDFS讀取數據
- 11. 如何從hdfs獲取特定數據?
- 12. 數據來源HDFS
- 13. HDFS數據統計
- 14. Android定期傳感器數據
- 15. 蟒蛇HDFS遠程上傳文件到HDFS
- 16. 如何定期將數據上傳到Google App Engine?
- 17. Bash腳本上傳文件到hdfs
- 18. HDFS:文件上傳後未分發
- 19. HDFS上非結構化數據行的數據存儲格式
- 20. 如何將特定部分的cvs文件上傳到HDFS?
- 21. HDFS複製 - 數據存儲
- 22. Hadoop - HDFS Namenode元數據 - FSImage
- 23. 寫AVRO數據到Hadoop hdfs
- 24. HDFS如何修改數據
- 25. 從hadoop hdfs數據搜索
- 26. HDFS中的示例數據
- 27. 導入HDFS數據到Opentsdb
- 28. 加載數據到HDFS
- 29. 將HDFS數據移入MongoDB
- 30. 獲取幾行HDFS數據