amazon-redshift

    1熱度

    1回答

    我正在使用spark-redshift和查詢使用pyspark進行處理的redshift數據。 查詢工作正常,如果我在使用工作臺等紅移運行。但spark-redshift卸載數據到s3,然後檢索它,它會引發以下錯誤,當我運行它。什麼是這裏的問題,我怎麼能解決這個 UNLOAD ('SELECT 「x」,」y" FROM (select x,y from table_name where ((lo

    0熱度

    2回答

    tl; dr:我想在Redshift中生成一個日期表,以便更容易地生成報告。不需要大型表已經在redshift,需要上傳一個csv文件。 長版本: 我正在編寫一份報告,我必須平均每週創建新項目。日期範圍可能會持續數月或更長時間,所以可能會有5個星期一,但只有4個星期日,這可能會使數學有點棘手。另外,我無法保證每天有單個項目的實例,特別是一旦用戶開始分割數據。其中,這正在絆倒BI工具。 解決此問題的

    -1熱度

    3回答

    我有超過8個模式和200多個表,並且數據由不同架構中的CSV文件加載。 我想知道如何查找所有200個表的平均時間以將數據從S3加載到Redshift的SQL腳本。

    1熱度

    1回答

    所以我有這個疑問出外 query = MyModel.objects.filter(some_filter).filter(eventTime__date__gte=start_date).filter(eventTime__date__lte=end_date).... 我連接到紅移表有EVENTTIME爲UTC。它提供我在本地SQL查詢像 select eventtime AT TIME

    0熱度

    1回答

    我在紅移執行以下操作在開始之後沒有創建新的事務,並且命令在COPY命令的事務下繼續運行。這有意義嗎? 我使用JDBC驅動程序1.2.8。在1.1.7中看到了不同的行爲。 這是在驅動程序的任何機會改變? (沒找到,雖然任何連接) 文件 - https://s3.amazonaws.com/redshift-downloads/drivers/Amazon+Redshift+JDBC+Release+

    0熱度

    1回答

    如何限制Redshift用戶/組在單個羣集環境中的多個數據庫中的單個數據庫。 例如,用戶test1_user是在test1_group1在稱爲test1_DB數據庫中創建和後,我們創建了另一個數據庫test2_DB,當我們在查詢test2_DB的pg_group或pg_useř我們可以看到test1_user和test1_group。

    1熱度

    2回答

    我有一個管道分隔的文本文件,它是360GB壓縮文件(gzip)。 它有超過1,620列。我不能準確顯示字段名,但這裏是它基本上是什麼: primary_key|property1_name|property1_value|property800_name|property800_value 12345|is_male|1|is_college_educated|1 嚴重的是,有超過這些屬性名

    2熱度

    2回答

    我們有一個查詢,其中查詢的「IN」子句中提供了參數值列表。一段時間後,由於「IN」子句中的數據大小變得非常大,因此查詢結果超過了REDSHIFT中查詢的16MB限制,因此該查詢無法執行。因此,我們嘗試分批處理數據,以限制數據並且不違反16 MB的限制。 我的問題是在爲查詢的「IN」子句提供如此大的數據時需要記住哪些因素/缺陷,或者是否有其他方法可以處理「IN」子句中的大數據?

    0熱度

    3回答

    在我的表中的數據是這樣的: date, app, country, sales 2017-01-01,XYZ,US,10000 2017-01-01,XYZ,GB,2000 2017-01-02,XYZ,US,30000 2017-01-02,XYZ,GB,1000 我需要找到,對於每個應用程序每天的基礎上,美國銷售的國標銷售的比例,因此,最好結果是這樣的: date, app, ra

    1熱度

    1回答

    我想安裝此網頁上提到的功能... https://en.wikibooks.org/wiki/Algorithm_Implementation/Checksums/Verhoeff_Algorithm#plpgsql 它正在紅移之外的所有平臺。我得到一個錯誤... Error in query: ERROR: Create Function is not supported for languag