我已經設置了一個測試Cassandra + Spark集羣。我能夠從火花成功查詢卡珊德拉,如果我做到以下幾點:如何從python應用程序查詢spark sql?
import org.apache.spark.sql.cassandra.CassandraSQLContext
import import sqlContext.implicits._
val cc = new CassandraSQLContext(sc)
val dataframe = cc.sql("select * from my_cassandra_table")
dataframe.first
現在我想從一個Python應用程序,我們查詢數據。網絡上的所有文檔似乎都顯示瞭如何使用spark的python shell(隱式提供上下文'sc')。
我需要能夠從一個獨立的python腳本運行spark SQL,這可能是一個服務於網頁的腳本。
我還沒有找到任何文檔,沒有關於apache-spark irc頻道的幫助。我只是在想這個錯嗎?有沒有其他工具可以向技術用戶較少的用戶提供Spark SQL?我完全是新的火花。
[Quick Start documentation](https://spark.apache.org/docs/latest/quick-start.html#self-contained-applications)如何? :) – zero323
@ zero323快速啓動文檔顯示如何編寫一個python腳本,然後'提交'到pyspark。我想要的東西類似於某些人可能使用pgsql或mysql驅動程序來運行普通的python web應用程序的方式。 Python腳本以'main'方法開始,導入所有的庫,每隔一段時間執行spark-sql查詢 – Shahbaz
'spark-submit'只是一個方便的包裝。只要所有的設置都是正確的,它並不是真正需要的。您在文檔中看到的是有效的獨立應用程序。 – zero323