cloudera

    0熱度

    1回答

    我寫了這個代碼沒有這樣的文件或目錄: from pyhive import hive connection = hive.connect("quickstart.cloudera", username="cloudera", port=10000) cursor = connection.cursor() query = "SELECT * FROM capacite

    0熱度

    1回答

    我在CDH 5.9上運行卡夫卡0.10.0,羣集被kerborized。 我想要做的是將消息從遠程機器寫入我的卡夫卡經紀人。 羣集(其中安裝了Kafka)具有內部以及外部IP地址。 集羣中機器的主機名解析爲私有IP,遠程機器將相同的主機名解析爲公有IP地址。 我從遠程機器打開必要的端口9092(我使用SASL_PLAINTEXT協議)到Kafka Broker,驗證了使用telnet。 第一步 -

    0熱度

    1回答

    當我嘗試使用Sparklyr包使用ml_decision_tree或ml_logistic_regresion時出現以下錯誤。我在cloudera集羣上使用spark2.1.0。 > No rows dropped by 'na.omit' call. Error in > stop(simpleError(sprintf(fmt, ...), if (call.) > sys.call(sy

    1熱度

    1回答

    我擁有Cloudera 5.10的羣集。 對於剖析我正在與參數火花提交: --conf "spark.driver.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling" --conf "spark.executor.extraJavaOptions= -agentpath:

    0熱度

    1回答

    我有一個在CDH 5.8.3中運行的flume代理程序。如果發送超過3個有效文件,它在寫入hdfs時會創建多個.tmp文件。有一個攔截器可以在hdfs接收器之前將有效的xmls傳遞給適當的主題。此代理正在使用flafka。攔截器和卡夫卡正在正常工作。 agent.sinks.hdfs_valid.channel=valid_channel agent.sinks.hdfs_valid.type=

    0熱度

    1回答

    我試圖解決方案在現有類似職位建議,但沒有爲我工作:-(變得非常絕望,所以我決定發佈這個作爲一個新的問題。 我在一個Cloudera的VM構建第一階或Java應用程序與星火嘗試了教程(下面的鏈接)。 這是我的火花提交命令及其輸出 [[email protected] sparkwordcount]$ spark-submit --class com.cloudera.sparkwordcount.S

    0熱度

    2回答

    我有一個配置單元問題。我正在使用cloudera測試羣集並禁用權限管理,因此Hive中沒有ACL處理。 現在我可以刪除另一個用戶的表格。之後該表格不存在於Hive Metastore中。問題是,hdfs中的文件還存在。 因此,如果我再次創建相同的表格,則會填充舊數據,因爲hdfs鑲木地板文件相同。 所有用戶都在羣組配置單元中。 所有數據庫文件都被授予以下權限:rwxrwxrwt 如果要完全刪除包含

    0熱度

    1回答

    我正在Docker上嘗試Cloudera。啓動Cloudera的命令是docker run --privileged=true --hostname=quickstart.cloudera -t -i ${HASH} /usr/bin/docker-quickstart。但是,我根本沒有/usr/bin/docker-quickstart。我確定我遵循默認步驟在我的MacBook上安裝Docker

    1熱度

    2回答

    我在使用Sqoop導入的HDFS中有一些數據。數據導入爲ORC,壓縮爲Snappy。 我想用下面的DDL語句在這個數據之上創建一個表。但是,我收到以下錯誤。 失敗:SemanticException [錯誤10043]:列的任一列表或 自定義序列應該通過定義ROW FORMAT SERDE and STORED AS INPUTFORMAT and OUTPUTFORMAT DDL指定 不過,我定

    0熱度

    1回答

    不Cloudera的5.1.2支持FILEFORMAT鑲.. 的Hadoop 2.3.0-cdh5.1.2 我們有在現場Cloudera的一些兼容性