2017-09-13 206 views
-1
1.sqoop export --connect jdbc:mysql://localhost:3306/hduser_db --username hduser 
    --password hduser --table export --export-dir /user/hive/warehouse/three -- 
fields-terminated-by ',' 

17/09/13 14:10:45 INFO mapreduce.Job: map 0% reduce 0% 
17/09/13 14:10:50 INFO mapreduce.Job: map 100% reduce 0% 
17/09/13 14:10:51 INFO mapreduce.Job: Job job_1505199140014_0033 failed with 
state FAILED due to: Task failed task_1505199140014_0033_m_000000 
ob failed as tasks failed. failedMaps:1 failedReduces:0 

2.17/09/13 14:10:51 INFO mapreduce.Job: Counters: 8 

工作計數器 失敗map任務= 1個 推出地圖任務= 1 機架本地地圖任務= 1周 在佔用時隙(ms)的所有地圖所用的總時間= 2947 佔用插槽中所有縮減花費的總時間(ms)= 0 所有映射任務花費的總時間(ms)= 2947 所有映射任務花費的總核心毫秒數= 2947 所有映射佔用的總兆字節毫秒數任務= 3017728 17/09/13 14:10:51警告mapreduce.Counters:Group FileSystemCounters組 org.apache.hadoop:是 棄用 17/09/13 14時10分51秒INFO mapreduce.ExportJobBase:在 14.8875小號 17/09/13 14時10分51秒WARN mapreduce.Counters轉移0字節。 mapred.Task $ C 17/09/13 14:10:51信息mapreduce.ExportJobBase:導出0條記錄。 17/09/13 14:10:51錯誤tool.ExportTool:導出期間出錯: 導出作業失敗! (org.apache.sqoop.tool.ExportTool.exportTable)上的org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java ) (ExportTool.java:80) at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:99) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache .hadoop.util.ToolRunner.run(ToolRunner.java:70) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234 ) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243) at org.apache.sqoop.Sqoop.main(Sqoop.java:252)sqoop導出失敗

回答

0

運行導出命令時- 下面的步驟必須小心。

  1. 源(HDFS數據)和目標(rdbms上的表)之間的數據類型,列名稱應匹配。

  2. 我們應該指定--columns參數中的所有列名。

如:

sqoop出口--connect的jdbc:mysql的://本地主機:3306/hduser_db --username hduser --password hduser --table出口 --export-DIR/user/hive/warehouse/3 --fields-terminated-by',' --columns「column1,column2,....」;