sqoop

    0熱度

    1回答

    我有10個使用oozie執行的sqoop命令。我應該寫10次sqoop動作,還是可以將sqoop命令放入文件並在sqoop動作中調用它。提前致謝。

    0熱度

    1回答

    我有一個shell腳本執行sqoop job。腳本如下。 !#/bin/bash table=$1 sqoop job --exec ${table} 現在,當我在工作流程中傳遞的表名我可以成功執行的sqoop工作。 工作流程如下。 <workflow-app name="Shell_script" xmlns="uri:oozie:workflow:0.5"> <start to=

    0熱度

    1回答

    的過程我有數據。我正在使用Pig到流程此數據。 PigSummarize數據將存儲在Hive中。然後配置單元表使用Sqoop在RDBMS中導出。現在我需要自動化所有這個過程。這是可能的,我會寫所有這些任務3特定的方法在的MapReduce,然後運行該的MapReduce工作,而所有這些任務由一個執行一個。 對於創建MapReduce作業,我想使用。 NetSDK。所以我的問題是這是可能的,並且如果

    0熱度

    1回答

    我已經從我的SQL數據庫,將數據傳輸到我的Azure的數據湖下面的命令Sqoop忽略列名: sqoop-import --connect "jdbc:sqlserver://MYDB.database.windows.net:1433;[email protected];password=MYPW;database=MYDb" --table TABLENAME --target-dir adl:

    0熱度

    1回答

    據我瞭解sqoop,它推出使得與RDBMS的JDBC連接不同的數據節點上幾個映射器。一旦形成連接,數據將被傳輸到HDFS。 只是想了解,是否sqoop映射器溢出數據臨時磁盤(數據節點)上?我知道在MapReduce中發生溢出,但不知道sqoop作業。

    0熱度

    1回答

    我正嘗試使用sqoop job將數據從oracle遷移到Hbase。它看起來像已成功導出,但在導入時會引發錯誤同樣在Hbase。 崗位1: ​ `​sqoop import --verbose --connect *** --username *** --password *** --table 'abc' --columns "MID,EID,RTIMESTAMP,VALUE,UTIMESTAM

    2熱度

    1回答

    任何人都可以請幫我理解後,從源系統(Postgres,甲骨文,sqlserver)的數據導入hdfs使用sqoop。您執行的檢查是否正確導入了所有數據,且沒有任何差異。你如何確保你導入的數據不是重複的數據。你執行的其他檢查是什麼?

    1熱度

    1回答

    在我的HDFS已經存在目錄「MyDatabase的」,我試圖更新是在MySQL與sqoop HDFS 然而數據,在進口清一色tables命令沒有在HDFS目錄中沒有覆蓋選項,僅在蜂巢 我嘗試做以下命令: sqoop import-all-tables --connect jdbc:mysql://10.20.20.43/mydatabase --username blizzard --pas

    0熱度

    1回答

    我有一個表中的sql服務器,我應該將它導入配置單元使用Java中的jdbc sqoop,我怎樣才能連接到使用JDBC和導入sqoop配置單元?

    0熱度

    1回答

    在這裏,我想創建一個sqoop作業,但它的投擲錯誤 FYI:當我嘗試直接sqoop導入它工作正常。 但是當我需要爲這樣的工作,當時其示值誤差 sqoop job --create myjob \ --import \ --connect jdbc:mysql://ip-171-33-113-14:3306/sqooped \ --username squser \ --password A