mapr

    0熱度

    2回答

    當我嘗試使用"sqlContext.read.format("libsvm").load"導入在pyspark /斯卡拉一個LIBSVM文件,我碰到下面的錯誤 - 「無法加載類數據源:Libsvm「。 與此同時,如果我使用"MLUtils.loadLibSVMFile"它工作得很好。我需要使用Spark ML(以獲得課堂概率)和MLlib進行評估。附上錯誤截圖。 這是一個MapR羣集。 1.5.2

    0熱度

    1回答

    我有一個擁有777權限的HBase表。每當我截斷此表(表上的truncate命令)時,表權限將更改爲r --------。你知道爲什麼嗎? 謝謝。

    0熱度

    1回答

    我正在運行一箇舊的MapR羣集mapr3。 如何爲mapr3構建Spark 1.5.x的自定義分發?

    0熱度

    1回答

    我的問題的簡短版本:我們需要從Spark作業中調用命令行。這是可行的嗎?羣集支持小組表示這可能會導致內存問題。 長版本:我有一份工作,我需要運行在使用tshark/wireshark捕獲的Hadoop/MapR集羣處理數據包數據上。數據是二進制包數據,每分鐘捕獲一個文件。我們需要從這個數據包數據中提取某些字段,例如IP地址等。我們已經研究了諸如jNetPcap這樣的選項,但是這個庫有點受限。所以看

    0熱度

    1回答

    我正在使用MapR快速安裝版本5.0安裝hadoop,並且出現以下錯誤。 MAPR CLDB未能爲600秒 我現在用的是社區版 下面內上線是日誌文件 2016年2月17日23:37:26.753:調試msg =「CLDB節點 - {{0} - > {}} - > ok:{CLARiiOG節點 - wadev-mapr-n1}} 2016-02-17 23:52:54.573失敗:[wait_for

    1熱度

    2回答

    我已經寫了一個帶有兩個輸入參數的驅動程序代碼:args [0]和args [1]。 我想使用ARGS [0]即輸入文件路徑,如在映射器代碼,使得我的緩衝器讀取器可以讀取文件我的文件路徑的一個如圖所示波紋管: { public void map(LongWritable key, Text value, Context context) throws java.io.IOExcepti

    3熱度

    2回答

    我試圖尋找在論壇上,在那裏我可以從現有的HBase表模式的新的空HBase的表,但沒能找到。 更確切地說,假設我有一個多列家庭和這些家庭中的許多列預選賽的表。 現在我要創建另一個空表具有相同的架構。我們是否有辦法像在RDBMS中那樣創建表格。 Create table new_table as select * from existing_table where 1=2; 現有表具有複雜的結

    0熱度

    1回答

    嘗試從Spring Boot配置連接MapR沙箱虛擬機。 @Bean FsShell fsShell() { org.apache.hadoop.conf.Configuration hadoopconfiguration = new org.apache.hadoop.conf.Configuration(); hadoopconfiguration.set("fs.

    0熱度

    1回答

    是否有命令查看MapR-DB表有多大? 我在POSIX客戶端上嘗試了du -sh,但所有的表都是相同的大小,所以我認爲這是不正確的。

    0熱度

    1回答

    我正在嘗試調用一系列ID的API,然後利用這些ID在使用curl的bash腳本中查詢某臺機器的某些信息,然後擦洗在輸出這些數據之前只有一些選擇的數據。 #!/bin/bash url="http://<myserver:myport>/ws/v1/history/mapreduce/jobs" for a in $(cat jobs.txt); do content="$(curl