我的任務是弄清楚如何擴展spark的api,以包含iPython Notebook等其他程序的一些自定義鉤子以鎖定。我已經通過了quick start guide,the cluster mode overview,submitting applications doc和this stack overflow question。一切我看到指示,如果要得到的東西在星火運行,你需要使用如何擴展apache spark api?
火花提交
做到這一點。因此,我掀起了一些代碼,這些代碼可以從我創建的accumulo表中抽出10行測試數據。然而,我的團隊領導正告訴我修改火花本身。這是完成我描述的任務的首選方式嗎?如果是這樣,爲什麼?什麼是價值主張?
真的嗎?通過倒票驅動?這位男士,這是膽怯的。是否真的很難閱讀這個問題並發表一些深思熟慮的批評? – 2015-03-13 19:50:48
請詳細說明「自定義鉤子」:你試圖達到什麼目的(不,我沒有downvote:你的問題是一個合理的開始)。特別是 - SqlContext或RDD需要額外的功能嗎?或者你可以結合現有的實現你的需求? – javadba 2015-03-13 21:11:30
@javadba - thx的回覆 - 如果你投降了,這將會非常酷!我最近非常沮喪,因爲SO的政策是允許匿名駕駛 - 通過投票。我們正在努力在spark和accumulo之間建立一個鏈接,以使像Notebook這樣的東西可以坐在火花之上並訪問accumulo數據,使用spark來執行地圖縮減操作等,以及完全需要什麼 - 在這一點上,我沒有'噸從我的領導收到細節。但是,他確實指出了幾何尺寸,並告訴我閱讀他們的代碼,我現在正在做這些代碼。 – 2015-03-13 21:21:06