1
我試圖在dataproc主節點上使用gcloud運行pyspark應用程序。我得到「請求認證範圍不足」請求認證範圍不足
# gcloud dataproc jobs submit pyspark --cluster xxxxx test.py
gcloud.dataproc.jobs.submit.pyspark) You do not have permission
to access cluster [xxxxxx] (or it may not exist):
Request had insufficient authentication scopes
我可以通過Jobs GUI運行相同的應用程序。我沒有鏈接到doc現在,但它表示,如果這已在Compute VM上運行,不需要單獨的憑據,這似乎與我使用GUI運行相同的應用程序時一致。任何幫助?