presto

    0熱度

    1回答

    我正在使用Presto查詢EMR中的Hive表。我初始化了presto驅動程序並獲得了連接,但是當我嘗試在該連接上執行查詢時,出現錯誤:服務器拒絕連接:http://aws.address/v1/statement。 我需要在使用之前設置Hive/AWS憑據嗎?我該怎麼做? public void init() { try { Class.forName("com.faceb

    2熱度

    1回答

    在EMR上,我使用spark在parquet中創建了一個數據集並將其存儲在S3上。 我目前能夠創建一個外部表並使用配置單元查詢它,但是當我嘗試使用presto執行相同的查詢時,我得到一個錯誤(該部分在每次運行時引用了更改)。 2016-11-13T13:11:15.165Z ERROR remote-task-callback-36 com.facebook.presto.execution.S

    0熱度

    1回答

    我從S3加載拼花文件到我的蜂房數據倉庫,這是一個EMR機內運行: Release: emr-5.1.0 Hadoop distribution: Amazon 2.7.3 Applications: Hive 2.1.0, Spark 2.0.1, Presto 0.152.3) 我可以很容易地使用查詢內部蜂巢結果: select * from table_a 然而,當我嘗試相同的查詢使用Pres

    2熱度

    1回答

    假設在我的presto集羣中有兩個數據源HIVE和Cassandra。即我有一個連接到Hive源的Hive目錄和一個連接到Cassandra源的Cassandra目錄。兩個團隊分別對它們進行工作。 如果兩個團隊並行提交單獨的查詢,則工作人員將爲每個查詢創建任務。正如在每個任務worker的presto中創建一個新線程,這意味着這兩個查詢的任務都駐留在相同的JVM(堆)中。由於兩個團隊都希望他們的數

    0熱度

    1回答

    我在玩拼花地板格式。 我有事件的實木複合文件,每個都包含時間戳,主題和標籤。 該文件按主題排序,然後按時間戳排序。 我跑,可等來描述查詢: select topic from T where topic = 404; 它運行得很快,並返回很少的行。它的運行速度比快很多: select topic from T; 當我改變它是這樣的: select tags from T where top

    5熱度

    3回答

    我就急和格式化爲VARCHAR,看起來像一個日期 - 7/14/2015 8:22:39 AM 我看過了似的文檔,並試圖各種事情(演員, date_format,使用split_part解析,然後轉換),並沒有得到這個轉換爲日期格式,我可以使用像date_diff函數。 我想: cast(fieldname as timestamp) date_format(fieldname, '%Y-%

    1熱度

    1回答

    我試圖啓動Presto以在RHEL計算機上查詢配置單元。 但同時通過"./launcher run"啓動普雷斯托服務器,我收到以下錯誤: 3 errors com.google.inject.CreationException: Unable to create injector, see the following errors: 1) Configuration property 'ht

    0熱度

    2回答

    有表名爲t1,並有列編號,created_at,文本,例如,如下表所示: id created text 1 Thu Jun 30 01:00:57 +0000 2016 I like this movie1 2 Thu Jun 30 02:59:57 +0000 2016 I like this movie2 3 Thu Jun 30 03:49:57 +0000

    0熱度

    1回答

    使用spark和drill,我可以查詢本地實木複合地板文件。 是否presto提供相同的功能? 換句話說,是否可以使用presto查詢本地實木複合地址文件 - 無需通過HDFS或配置單元?

    0熱度

    1回答

    我在普雷斯托0.148的HDP 2.3運行復雜的查詢哪些錯誤OUT- Query 20161215_175704_00035_tryh6 failed: Query exceeded local memory limit of 1GB 我能聯合國簡單的查詢沒有問題。在協調和工人 配置節點 - http-server.http.port=9080 query.max-memory=50GB