hive

    1熱度

    1回答

    予加載的dynamodb充滿微信息(JSON格式)轉換成蜂房。從JSON文件的格式如下: {"id":{"s":"894643473017561088"},"sentiment":{"s":"neutral"},"subjectivity":{"s":"0.0"},"username":{"s":"Jessi"},"geo":{"s":"None"},"location":{"s":"Valley

    0熱度

    1回答

    我在蜂巢中有一個外部表。它生成沒有任何擴展名的文件名。我如何強制Hive將擴展名(例如.tsv)添加到文件中?在create table語句中是否有任何選項?

    0熱度

    1回答

    我有兩個數據集: 1) Table A id name 1 raju 2 ramu 2 ramu 3 rakesh Table A 2) Table B id Status 1 Y 1 Y 2 N 2 N 2 Y 3 N Table B 我想執行一個左外連接(表左外連接表B)在配置單元中以這樣的方式,即在列'id'上加入兩個數據集時,如果Sta表B中土族列有「Y」至

    0熱度

    1回答

    這裏是我今天的交易。那麼,我已經從蜂巢中讀取了關係之後創建了一個關係作爲幾個轉換的結果。事情是,我想在存儲蜂巢後幾次分析後保存最終關係,但我不能。讓我看看在我的代碼很清楚。 第一個字符串是當我從蜂巢加載和轉換我的結果: july = LOAD 'POC.july' USING org.apache.hive.hcatalog.pig.HCatLoader ; july_cl = FOREACH

    0熱度

    1回答

    我在HDFS中有一個表'test',它有列(id,name,city,salary)。我想導出(姓名,城市)到MySQL,但是當我使用SQOOP命令使用--columns比MySQL列選擇不測試表格列hdfs和id列中的數據在hdfs被轉移到名稱,名稱列hdfs轉移到MySQL中的城市列。 有沒有什麼辦法從hdfs中選擇一個特定的列並傳遞它?

    0熱度

    1回答

    我使用Avro的文件數據存儲在HDFS複製。我需要從一個avro文件複製選定的列數據並將其發送到同一個集羣中具有其自己的模式文件(具有選定列信息)的另一個位置。我怎樣才能做到這一點?是否可以使用Hive實現?或者HDFS中是否有任何實用工具可以幫助我做到這一點? 這是必需的,因爲一組必須能夠訪問整個表,而另一組應該能夠訪問只有幾列。所以,我需要它們只在HDFS中的一個單獨位置,只有所需的模式和av

    0熱度

    1回答

    我有2個Hive表。表1有2列和2臺經度和緯度有像波紋管在WKT格式的多邊形信息: POLYGON ((6.93614 79.842882, 6.950198 79.856958, 6.943638 79.877815, 6.931795 79.877129, 6.92566 79.861507, 6.919184 79.861507, 6.917906 79.847603, 6.93614 79

    0熱度

    1回答

    我正在使用Hive_2.1.1和Hadoop 2.7。 我想從一個簡單的Java程序寫入配置單元。我首先閱讀Hive中的表的元數據。 我收到以下錯誤。 WARN server.TThreadPoolServer:任務已被 ExecutorService的拒絕9次,直到已逾時,原因: java.util.concurrent.RejectedExecution異常:任務 [email protect

    1熱度

    1回答

    我在軍事時間格式即18:10:45 時間,但我需要它在標準時間即06:10:45 此外AM或PM指標應該在那裏。 所以最終的輸出將是06:10:45 PM

    0熱度

    1回答

    我正在嘗試使用Dropwizard創建一個WS REST來獲取查詢的Hive結果並以XML格式進行呈現。這可以完成每個分離的部分沒有錯誤。 當我加入所有內容時,我遇到了Dropwizard和hive-jdbc之間的不兼容問題。顯然hive-jdbc有球衣1作爲依賴,Dropwizard有球衣2. 我不確定這是否是問題。我試圖在pom.xml中排除依賴關係,但沒有解決。 我試圖製作一個應用程序,只需