有什麼方法可以爲Hive MR作業配置分隔符? 內部配置單元內部使用的默認分隔符是「hive delimiter」(/ 001)。我的用例是配置分隔符,以便我可以根據需要使用任何分隔符。在hadoop中有一個屬性「mapred.textoutputformatter.separator」,它將設置鍵值分隔符爲此屬性指定的值。是否有任何這樣的方式來配置Hive中的分隔符?..我搜索了很多,但沒有'沒有任何有用的鏈接。請幫幫我。配置Hive MR作業的分隔符
3
A
回答
0
你可以試試:
SELECT (rest of your query)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY 'YourChar' (example: FIELDS TERMINATED BY '\t')
1
由於蜂巢-0.11.0的,你可以寫
INSERT OVERWRITE LOCAL DIRECTORY '...'
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
SELECT ...
的完整語法見HIVE-3682。
0
您也可以使用此: -
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
WITH SERDEPROPERTIES ('field.delim'='-','serialization.format'='-')
這會分開使用列 - 定界符但具體到LazSimpleSerde。
0
我想你正在使用INSERT OVERWRITE DIRECTORY選項來寫入hdfs文件。 如果在沒有分隔符的hdfs文件的頂部創建一個配置單元表,那麼將以'\ 001'作爲分隔符,因此您可以從配置單元表中讀取文件而不會出現任何問題
0
如果您將源表dnt不是在create schema語句中指定分隔符,那麼您將無法更改該分隔符。您操作將始終包含默認值。是的,分隔符將由源表的創建模式控制。所以這也不是可配置的。 我有一個類似的問題,並最終修改001完成配置單元MR作業後的第二步。
相關問題
- 1. 如何設置在CDH5 Hue中運行MR作業的配置?
- 2. MR作業的豬文檔
- 3. HDFS文件中的分隔符與Hive表格的分隔符值不匹配
- 4. 通配符的Hive分區
- 5. HIVE分隔符\ n^M的問題
- 6. Hive列分隔符不同的行爲
- 7. 如何爲從hive jdbc查詢啓動的mr作業指定其他jar?
- 8. 配有實地分隔符的Hive ORC或AVRO格式
- 9. mapreduce - 找不到帶作業ID的MR
- 10. Hive查詢輸出分隔符
- 11. Hive MapReduce作業拆分文件
- 12. 從MapReduce作業向Hive添加分區
- 13. 在HDFS文件的一部分上運行MR作業
- 14. hive/hbase集成上的MR scratch問題
- 15. 配置單元-e帶分隔符
- 16. Hive字段分隔符作爲固定偏移量
- 17. Hive On Spark:java.lang.NoClassDefFoundError:org/apache/hive/spark/client /作業
- 18. 使用§作爲分隔符的配置單元
- 19. 配置Hive的HCatalog
- 20. Hadoop作業配置
- 21. Autosys作業配置
- 22. Hive表屬性將連續分隔符視爲一個分隔符
- 23. Hadoop的 - 在作業配置
- 24. Hive metastore配置derby
- 25. oozie中Hive操作的作業隊列
- 26. 多字符分隔符
- 27. 提高分隔配置塊
- 28. 匹配逃脫分隔符
- 29. Spark HiveContext - 從外部分區讀取Hive表分隔符問題
- 30. 將分隔列分隔爲HIVE中的唯一行
感謝您的快速回復。但問題在於,我們正在將配置單元MR o/p寫入dfs位置。如果配置單元使用分隔符作爲'\ 001',那麼可能有一些方法可以明確配置它,比如通過設置一些屬性。 –