我從我自己的工作站上的pycharm啓動pyspark應用程序到8個節點集羣。此羣集還具有spark-defaults.conf和spark-env.sh中編碼的設置。如何設置默認火花日誌記錄級別?
這就是我如何獲取我的spark上下文變量。
spark = SparkSession \
.builder \
.master("spark://stcpgrnlp06p.options-it.com:7087") \
.appName(__SPARK_APP_NAME__) \
.config("spark.executor.memory", "50g") \
.config("spark.eventlog.enabled", "true") \
.config("spark.eventlog.dir", r"/net/share/grid/bin/spark/UAT/SparkLogs/") \
.config("spark.cores.max", 128) \
.config("spark.sql.crossJoin.enabled", "True") \
.config("spark.executor.extraLibraryPath","/net/share/grid/bin/spark/UAT/bin/vertica-jdbc-8.0.0-0.jar") \
.config("spark.serializer", "org.apache.spark.serializer.KryoSerializer") \
.config("spark.logConf", "true") \
.getOrCreate()
sc = spark.sparkContext
sc.setLogLevel("INFO")
我想查看我的日誌中正在使用的有效配置。這條線
.config("spark.logConf", "true") \
應引起火花API來其有效配置日誌日誌爲INFO,但默認的日誌級別設置爲警告,因此我沒有看到任何消息。
設置此行
sc.setLogLevel("INFO")
顯示INFO消息前進,但它那時爲時已晚。
如何設置火花啓動的默認日誌記錄級別?
[如何停止的消息顯示火花控制檯上?(https://stackoverflow.com/questions/27781187/how-to-stop-messages-displaying-on-spark-console) –