sqoop

    1熱度

    3回答

    嗨,我能夠在蜂巢終端運行蜂巢命令,但是當我嘗試通過Oozie的運行它,我無法運行它收到的一些錯誤ANS日誌文件看起來像下面 2013-03-21 11:55:48,973 INFO ActionStartXCommand:539 - USER[biadmin] GROUP[-] TOKEN[] APP[hive-wf] JOB[0000005-130314190356094-oozie-biad-

    0熱度

    2回答

    成功導入Hive後使用Sqoop,我無法在Hive中看到最近導入的表格。 import命令 ./sqoop import --connect jdbc:mysql://localhost:3306/extedu --table user --username TALHA -P --warehouse-dir /home/talha/warehouse --direct 蜂巢表 hive> sh

    0熱度

    2回答

    我的要求是將通過不同源收集到網絡共享文件夾中的XML文件加載到Hive中。我需要一個確認方法來跟蹤。 根據我的理解,我必須 1.首先將所有文件加載到HDFS 2.然後使用Mapreduce或sqoop將xml文件轉換爲所需的表,然後我必須將它們加載到Hive中。 如果存在,請給我建議更好的方法。

    2熱度

    2回答

    我正在使用Sqoop將一個表從mysql導入配置單元。一些列是latin1編碼的。有沒有辦法做到這一點: 在Hive中將這些列的編碼設置爲latin1。 OR 使用sqoop導入時,將列轉換爲utf-8?

    0熱度

    3回答

    我正在將一個簡單的配置表格導出到Sql服務器。兩個表都有確切的模式。在Sql Server中有一個標識列,我已經完成了「set identity_insert table_name on」。 但是,當我從sqoop出口到SQL Server,sqoop給我一個錯誤說「IDENTITY_INSERT設置爲關閉」。 如果我出口到沒有標識列的SQL Server表,然後一切工作正常。 對此有何想法?從s

    0熱度

    1回答

    我與sqoop發現我的表的上限值存在問題。它必須是但它的未來null因此,查詢(粗體字)是錯誤的。 [email protected]:~$ sudo -u hdfs sqoop job --create testora -- import --connect jdbc:oracle:thin:@192.168.1.6:1521/DB --username SYSTEM -password Wel

    4熱度

    3回答

    sqoop import --connect jdbc:mysql://remote-ip/db --username xxx --password xxx --table tb --hive-import 上述命令進口表TB到「default」蜂巢數據庫。 我可以使用其他數據庫嗎?

    3熱度

    3回答

    我們使用Sqoop將數據從配置單元導出到SQL Server。新數據總是附加到SQL Server中的現有數據。 在開始導出之前是否可以通過Sqoop截斷SQL Server表?

    1熱度

    1回答

    我有一種情況,即將數據從MYSQL數據庫中每天攝入hadoop到日期文件夾中。幾行將被每天編輯,並且可能還會有一些模式更改。如果我只對最新數據和模式感興趣,我們如何在Hadoop中處理此問題

    1熱度

    1回答

    如果爲oracle瘦提供(--connect/- user/- password),我可以在不提供--driver參數的情況下運行Sqoop。 但我需要使用自定義JDBC驅動程序(正確實現java.sql.Driver接口)來運行,而不是使用oracle.jdbc.OracleDriver。 我無法通過使用--driver參數對其進行驗證而無法正常工作。 和this suggestion根本沒有幫