2015-11-11 222 views
2

我在HDP 2.1羣集上安裝了spark 1.5.1進程。哪些使用hadoop 2.4.0,並且當驅動程序嘗試寫入給定的Hive表時,我有權限拒絕了問題。火花紗羣集權限問題

submiting作業的用戶是gvp_service,作業期間,它的工人能夠與gvp_service寫權限,但我收到以下異常metastore交互時:

產生的原因:org.apache.hadoop .ipc.RemoteException(org.apache.hadoop.security.AccessControlException):Permission denied:user = yarn,access = WRITE,inode =「/ apps/hive/warehouse/gbic_video_video.db/gbic_video_video_raw_users/global_op_id = 1000/service_type = 1 /天= 2015" 年9月15日:gvp_service:HDFS的。drwxr-XR-X 在org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:265)

爲什麼使用紗線用戶來完成這項任務?是否使用Hadoop客戶端2.4.0?

回答

0

你可以檢查作業是作爲哪個用戶提交的嗎?與蜂巢互動,你應該有「蜂房的site.xml」在$ SPARK_INSTALL_DIR下面內容

<configuration> 
<property> 
    <name>hive.metastore.uris</name> 
    <!-- Ensure that the following statement points to the Hive Metastore URI in your cluster --> 
    <value>thrift://<METASTORE IP>:9083</value> 
    <description>URI for client to contact metastore server</description> 
</property> 
</configuration> 

希望/ conf目錄這有助於