amazon-redshift

    1熱度

    2回答

    比方說,我有以下查詢: SELECT sum(a), sum(b), sum(a) - sum(b) FROM salelines 希望它應該只需要做sum(a)和sum(b)曾經因爲第三欄可以重用這些聚集。這裏是EXPLAIN: XN HashAggregate (cost=35.21..41.90 rows=535 width=22) -> XN Seq Scan on sal

    1熱度

    1回答

    我試圖將時間戳列轉換或轉換爲Redshift數據庫中的整數值。我知道在其他基於SQL的數據庫中可能會出現這種情況,而我之前已經這樣做了,但是在Redshift中,我無法使其工作。 我試過cast和convert(http://docs.aws.amazon.com/redshift/latest/dg/r_CAST_function.html)的一些變化。 下面是一個例子: SELECT cast

    0熱度

    2回答

    我想清理我的小型數據庫,並試圖看到當最後一次實際查詢一些表但似乎無法找到任何文檔如何做這個。我可以在我的模式和大小中獲得所有表的列表,但是在輪詢我的用戶之前無法確定什麼可能是陳舊的。 有沒有人知道一種方法來獲取在紅移中使用/查詢表的最後日期? select schema, "table", size as GB from svv_table_info wh

    0熱度

    2回答

    請原諒我的無知,如果這個問題可能聽起來很傻這裏的專家觀衆 目前按我的使用情況 我存在於AWS紅移表中的數據進行一定的分析,併爲他們節省一在S3桶 csv文件(操作是一些什麼類似Pivot for redshift database) ,之後我更新的數據回紅移分貝使用copy命令200個CSV文件進行分析(這是在python3完成)後 目前是生成的這些保存在200個不同的紅移表中 CSV的數量將繼續

    0熱度

    1回答

    我正嘗試使用iam_role將數據從Redshift卸載到S3。只要我將數據卸載到與Redshift集羣相同的帳戶所擁有的S3存儲桶中,unload命令就可以正常工作。 但是,如果我嘗試將數據卸載到另一個帳戶所擁有的S3存儲桶中,則不起作用。我曾嘗試在這些教程中提到的方法: Tutorial: Delegate Access Across AWS Accounts Using IAM Roles

    1熱度

    1回答

    我是新對terraform - 我看這裏的文檔:https://www.terraform.io/docs/providers/aws/r/redshift_cluster.html ...但我沒有看到一個選項,從而實現跨區域快照使用Terraform模板紅移集羣。看起來像一個簡單的選項來實現,而且對我們來說是一個關鍵特性。

    0熱度

    1回答

    我已經構建了一個系統,其中數據從s3每隔幾分鐘(從kinesis firehose)加載到redshift中。然後我從該主表中獲取數據並將其分成每個客戶的表格。 主表有幾億行。 create table {$table} as select * from {$source_table} where customer_id = '{$customer_id} and time between {$s

    3熱度

    2回答

    update dataset1.test set column4 = (select column1 from dataset2 order by random() limit 1 ) 我必須更新第4列的dataset1,每行更新從數據集2列的隨機條目..但到目前爲止,在上面的查詢中,我只有一個隨機條目在所有數據集1的行

    0熱度

    1回答

    我有一個包含兩列的以下結構的表:URL A和URL B.只要URL A變爲非活動狀態,它就會重定向。 URL B記錄重定向,否則爲NULL。我現在有一個重定向發生超過1次的問題(比如我們說100次)。我現在正在嘗試將最後一次重定向的值指定爲每個最終指向最後一次重定向的URL的唯一ID。 下面是一個例子: URL-A URL-B AAA NULL AAA AAB AAB NULL AAB A

    0熱度

    1回答

    CREATE EXTENSION dblink; 我試圖在AWS中創建擴展dblink,但收到此錯誤。 ERROR: syntax error at or near "EXTENSION" LINE 1: create extension dblink;