amazon-redshift

    1熱度

    2回答

    我想使用他們的COPY命令(http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html)將apache樣式的日誌加載到亞馬遜紅移羣集中,但日期解析存在一些問題。我的日期是這樣的: [10/Oct/2000:13:55:36 -0700] 紅移[時間格式文檔http://docs.aws.amazon.com/redshift/latest/d

    1熱度

    1回答

    如何將S3文件夾中的CSV文件複製到Redshift並避免重複行? 我已閱讀有關複製命令,但沒有找到任何有關通過PHP SDK使用它的文檔。

    2熱度

    1回答

    如何在普通SQL中執行類似於多對多基數表的一些最佳方法。 示例 - 三個表:產品(id標識,name varchar(max)),銷售(id標識,customer varchar(max)),SalesLine(id標識,產品整數參考產品,銷售整數參考銷售): INSERT INTO Product (name) VALUES ('new product'); INSERT INTO Sale

    0熱度

    1回答

    我們正試圖將我們的數據庫(mysql)移動到amazon redshift(數據倉庫),並且在更新倉庫數據庫時遇到問題。我們已經啓用了我們的數據庫的通用日誌記錄,然後我們從紅色通用日誌中重放所有這些查詢。所有更新查詢需要大約6-7秒。我正在尋找某種方式以更快的速度執行這些更新? Amazon Redshift在內部使用了一個postgre db,如果有人已經爲redshift/postgre解決了

    4熱度

    2回答

    我有一個支持連接的PostgreSQL客戶端與亞馬遜紅移數據庫JDBC 谷歌Apps腳本支持連接到使用JDBC分貝,而只用mysql,ms sql和oracle協議,但不是postgresql。如果我嘗試,不出意外,我會收到錯誤: '連接URL使用不支持的JDBC協議'。 看着一些谷歌論壇,這已經是幾年沒有迴應谷歌的問題。 有什麼解決方法嗎? 感謝

    5熱度

    1回答

    有沒有辦法指示Hive將數據分割成多個輸出文件?或者可以限制輸出文件的大小。 我打算使用紅移,其中建議拆分數據分成多個文件,以允許並行裝載http://docs.aws.amazon.com/redshift/latest/dg/t_splitting-data-files.html 我們在蜂巢全部進行預處理出的數據,我想知道是否有創造的一種方式,比如說10 1GB文件,這可能會使複製速度更快。

    1熱度

    2回答

    如何在SQL工作臺/ J添加計算列(如客戶端亞馬遜紅移) ALTER TABLE table_one ADD COLUMN test_column AS ( SELECT (CASE WHEN LEFT(name,3) = "Ads" THEN "ok" ELSE "no" END) FROM table_one ) VARCHAR(100) NULL; 我還試圖取代SELECT聲

    4熱度

    2回答

    Amazon Redshift提供了使用「複製」命令從s3對象加載表格數據的功能。他們是使用複製命令的一種方式,但也爲每個插入的行設置了額外的「col = CONSTANT」。 我想在每個複製的行上設置一個job_id(它不在源數據中),我認爲這將是一個恥辱,必須執行幾百萬個插入操作,這樣每行都有一個job屬性, 「複製」使我獲得了99%的性能。 也許有更聰明的解決方案?

    1熱度

    1回答

    我試圖在表上使用unpivot。我使用Workbench/J作爲客戶端來進行亞馬遜紅移。下面的SELECT語句不工作: SELECT campaign_id, C.B, C.A FROM campaign UNPIVOT ( A FOR B IN (item1, item2, item3) ) AS C 我得到以下錯誤: ERROR: syntax

    1熱度

    3回答

    我跑在我們的老MySQL數據庫精細的查詢,其中有一個檢查: WHERE column_x + column_y > 524288000 現在我們已經遷移到紅移,查詢失敗: ERROR: Numeric data overflow (addition) Detail: ----------------------------------------------- e