2015-06-04 31 views

回答

1

pyspark中的並行化是通過daemon.py調用os.fork()來創建多個工作進程來實現的,所以不會出現GIL問題。

相關問題