我執行下面的命令sqoopSqoop進口全表中特定數據庫蜂巢失敗
sqoop import-all-tables -m 1 \
--connect "jdbc:mysql://nn01.itversity.com:3306/retail_db" \
--username=retail_dba \
--password=itversity \
--hive-import \
--hive-home /apps/hive/warehouse \
--hive-overwrite \
--hive-database grv_sqoop_import \
--create-hive-table \
--compress \
--compression-codec org.apache.hadoop.io.compress.SnappyCodec \
--outdir java_files
正如我所指定的--hive-database
表應該導入到它。但我發現了以下錯誤:
ERROR tool.ImportAllTablesTool: Encountered IOException running import job: org.apache.hadoop.mapred.FileAlreadyExistsException: Ou
tput directory hdfs://nn01.itversity.com:8020/user/gauravfrankly/categories already exists
無法理解爲什麼它尋找到/user/gauravfrankly/
HDFS位置。
幫助理解這個問題,我在這裏錯過了什麼?
我也經歷了Getting an file exists error while import into Hive using sqoop,但想知道,有沒有其他更好的方法來處理它。
你試過刪除'--create-hive-table'這個並運行? –