phoenix

    1熱度

    1回答

    我有一個程序,其中我一直使用由Lukas Lalinsky開發的phoenixdb軟件包,但在過去幾天裏它似乎變得非常不穩定。我認爲這是由於數據庫的大小(因爲它不斷增長)。由於不穩定,我的意思是大約一半的查詢失敗,出現運行時異常。 所以我繼續前進,並試圖找到一個更穩定的方式來連接我的鳳凰「服務器」。因此我想嘗試一個JDBC連接。據我瞭解,鳳凰應該與JDBC有很好的整合。 但是,我確實在理解如何設置

    0熱度

    1回答

    我想從pyspark過濾日期在apache phoenix。 phoenix中的列被創建爲Date並且過濾器是日期時間。當我使用解釋,我看到火花不會推動過濾器鳳凰。我嘗試了很多組合,但沒有運氣。 任何方式來做到這一點? df = sqlContext.read \ .format("org.apache.phoenix.spark") \ .option("table", "T

    1熱度

    1回答

    我想爲ActiveJDBC添加一些對Apache Phoenix的支持。我使用ActiveJDBC簡單示例項目作爲測試,並對ActiveJDBC 2.0-SNAPSHOT(最新來自github)的克隆進行更改。 所以在ActiveJDBC遠2.0-快照我有: 創建在org.javalite.activejdbc.dialects一個PhoenixDialect類 覆蓋所述插入方法(菲尼克斯使用UP

    0熱度

    1回答

    使用PhoenixSwagger導致編譯錯誤 使用鳳招搖 # mix file {:phoenix_swagger, "~> 0.4.0"} # router.ex use PhoenixSwagger .. scope "/api/swagger" do forward "/", PhoenixSwagger.Plug.SwaggerUI, otp_app: :http, swa

    0熱度

    1回答

    我有一個Apache鳳凰數據庫設置,我想用PhoenixDb插件使用Python查詢它。 我有以下行的表: --------------------------------------------------------------------------------------------------------------------------------------------------

    1熱度

    1回答

    我寫下面的代碼保存火花數據幀到phonenix: phoenix_df.write.format(「org.apache.phoenix.spark」)模式(SaveMode.Overwrite)。選項(圖( 「表」 - > 「TEST」, 「zkUrl」 - > 「defabc10d」))。保存() 使用火花1.6.0。 然而,作業與以下錯誤而失敗: java.lang.NoSuchMethod

    0熱度

    1回答

    我創建了一個連接到Phoenix HBase的python腳本來分析一些數據。我想在我運行的Ubuntu服務器上的crontab上設置這個腳本。 該腳本完全能夠在我的Windows 10機器上運行。但是當我嘗試在Ubuntu上使用phoenixdb連接器時,RunTime上出現錯誤。 >>> import phoenixdb >>> url = '<some-url>' >>> conn =

    1熱度

    1回答

    我們的要求是一列,覆蓋從SPARK分區級中的記錄進行分區鳳凰臺。

    0熱度

    1回答

    我不知道我在哪裏可以得到phoenix-client-spark.jar。 我從phoenix-4.7.0-HBase-1.0-bin.tar.gz找到它,但我找不到它。

    1熱度

    2回答

    我想在aphp鳳凰運行一個自定義udf,但得到錯誤。請幫我弄清楚這個問題。 以下是我的功能類: package co.abc.phoenix.customudfs; import org.apache.hadoop.hbase.io.ImmutableBytesWritable; import org.apache.phoenix.expression.Expression; import