0
我有一個pyspark工作(spark 1.6.1,python 2.7)。其基本結構是:使用PySpark模塊導入錯誤
spark_jobs/
__init__.py
luigi_workflow.py
my_pyspark/
__init__.py
__main__.py
spark_job.py
stuff/
__init__.py
module1.py
module2.py
analytics/
__init__.py
analytics.py
在我spark_job.py
我:
from dir1.module1 import func1
from dir1.module2 import func2
from analytics.analytics import some_analytics_func
...
func1(...)
func2(...)
some_analytics_func(...)
...
當我啓動火花的工作,func1
和func2
執行完美,但後來我得到:
ImportError: No module named analytics.analytics
這一直讓我絕對瘋了。任何幫助,將不勝感激。
注:我用的包裝推出圍繞並指定與python -m spark_jobs.my_pyspark