pdi

    0熱度

    1回答

    我想爲我的Ubuntu 14.04.4服務器編寫兩個計劃作業。這些工作需要是連續的。 第一份工作應該解壓縮.gz文件(SQL Dump),然後將表「myTable」導入MySQL數據庫(本地主機)。 第二項工作(使用Pentaho數據集成工具編寫)從表「myTable」中提取數據,將其轉換並加載到新數據庫中。 我可以完成使用Pentaho的PDI勺子第一任務,但它不提供任何功能要解壓的文件名爲.g

    0熱度

    1回答

    我想將XML轉換爲HTML並通過emil發送此html。 我爲使用XSL轉換來傳遞XML到HTML但似乎我得到一個問題,室內用XSL文件 這是我的XML文件 <?xml version="1.0" encoding="UTF-8"?> <Reports> <Report><PRODUCT>googleDFD </PRODUCT> </Report> <Report><PROD

    1熱度

    2回答

    與輸入(100.000-200.000行/秒)相比,我的表格輸出步驟非常緩慢(〜2.000行/秒)。 MySQL服務器不是問題,使用本地MySQL,例如與「執行SQL腳本」步驟,我得到的東西在10萬/秒。我已經嘗試(沒有成功)通過延伸SQL選項的常見解決方案: useServerPrepStmts=false rewriteBatchedStatements=true useCompressi

    1熱度

    1回答

    使用PDI水壺MongoDB輸出,我試圖通過查詢_id(ObjectId)字段來更新mongodb文檔。 如果我通過了_id變量作爲字符串到MongoDB的輸出步,時生成最終的查詢看起來像 Modifier update query: { "_id" : "<string val>" } 這可能會最終轉化爲類​​似 Modifier update query: {

    0熱度

    1回答

    在水壺中,我有兩個不同元佈局的步驟,它們將數據發送到用作數據收集器的普通用戶定義Java類(請參見下圖以供參考)。 to步驟發送的輸出行具有不同的元數據。但是,用戶定義的Java類總是會看到第一行的元數據,因爲getInputRowMeta()總是返回相同的信息。 是否有任何方法可用於獲取(刷新)有關由getRow()返回的特定行的元數據的信息?

    1熱度

    1回答

    我正試圖在勺子中導入json。它對一個文件.json工作得很好,但是當我從一個URL中嘗試它時,我在執行轉換時遇到了意外錯誤,後面跟着java空指針異常。 我得到了與「JSON輸入」相同的錯誤,並且「獲取內容」後面跟着「從流中提取」,這似乎非常相似。 對於簡單的測試我用於URL: http://echo.jsontest.com/name/James/age/25 我試圖用「的Json INPUT

    0熱度

    1回答

    在我的Pentaho數據集成程序中輸入參數DATE,例如2016-03-15(或者不同,對我來說無所謂)。 現在我想在調用數據庫過程步驟中使用此參數,所以我需要PL/SQL使用它的格式參數。在PL/SQL程序是這樣的:start_test(key_date日期,名稱VARCHAR2) 我曾嘗試與選擇值步驟來解決它,但它並沒有工作至今... 我該怎麼需要改變,所以我的參數與呼叫數據庫程序一起工作?

    1熱度

    1回答

    讓我開始了我要完成: 我每天得到20電子郵件與客戶端的報告,我不得不提取附件爲每一個.xls文件,做好取決於誰發送的文件進行簡單的轉換。 隨着Pentaho的數據集成,我設置了一些trasnformations,但需要有以前的一個文件夾中提取的文件。 現在我想PDI讀取電子郵件帳戶(他們已經有電子郵件輸入),但我可以看到它只讀取電子郵件的數據,我還沒有找到方法從特定電子郵件中提取附件,將它們保存到

    0熱度

    2回答

    顯然,文本文件輸出步驟水壺的不支持的併發:如果兩個不同的文本文件輸出步驟寫入到相同的文件中,沒有鎖定機構因此生成的輸出文件包含輸入源的字段混合導致的(錯誤的)輸出行。任何人都可以提供我確認這種行爲(更好的如果有一個信用的來源)?

    2熱度

    1回答

    在勺內我已經使用了mongoDB Input步驟。對於形式給定的文件.. {"Number": [ "4700100004" ], "Random": [ "unknown" ], "List_Of_Vals1": [ "3", "2", "1", ], "List_Of_Vals2": [ "1", "2",