2016-07-28 25 views
0

我有一個小的hadoop羣集(4臺服務器),並安裝hbase,但它不能很好地工作。 i之後標籤 'start-hbase.sh',在3 HRegionServer的日誌Hbase HRegionServer WARN並在一段時間後關閉

2016年7月27日21:29:55122 WARN [ResponseProcessor塊BP-1601089490-XX.XX.XX.XX-1469276064635 :blk_1073742337_1586] hdfs.DFSClient:DFSOutputStream對於塊BP-1601089490-xx.xx.xx.xx-1469276064635的響應處理器異常:blk_1073742337_1586 java.io.EOFException:過早的EOF:沒有可用的長度前綴 at org.apache.hadoop.hdfs .protocolPB.PBHelper.vintPrefixed(PBHelper.java:2000) at org.apache.hadoop.hdfs.protocol.datatransfer.PipelineAck.readFields(PipelineAck.java:176) at org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer $ ResponseProcessor.run(DFSOutputStream.java:798) 2016-07-27 21:29:55,223 WARN [DataStreamer for file /hbase/WALs/server2,16020,1469669327730/server2%2C16020%2C1469669327730.default.1469669334510 block BP-1601089490-xx.xx.xx.xx-1469276064635 :blk_1073742337_1586] hdfs.DFSClient:錯誤恢復塊BP-1601089490-xx.xx.xx.xx-1469276064635:管道中的blk_1073742337_1586 xx.xx.xx.200:50010,xx.xx.xx.20:50010:數據節點錯誤xx.xx.xx.200:50010 2016-07-27 21:29:55,247 WARN [DataStreamer for file /hbase/WALs/server2,16020,1469669327730/server2%2C16020%2C1469669327730.default.1469669334510 block BP-1601089490- xx.xx.xx.xx-1469276064635:blk_1073742337_1586] hdfs.DFSClient:DataStreamer異常 java.io.IOException:由於沒有更好的Datanode可用於嘗試,因此無法替換現有管線上的錯誤數據節點。 (節點:當前= [xx.xx.xx.20:50010],原始= [xx.xx.xx.20:50010])。當前失敗的datanode替換策略是DEFAULT,客戶端可以通過配置中的「dfs.client.block.write.replace-datanode-on-failure.policy」進行配置。 在org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.findNewDatanode(DFSOutputStream.java:969) 在org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.addDatanode2ExistingPipeline(DFSOutputStream.java:1035) 在org.apache。 hadoop.hdfs.DFSOutputStream $ DataStreamer.setupPipelineForAppendOrRecovery(DFSOutputStream.java:1184) 在org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.processDatanodeError(DFSOutputStream.java:933) 在org.apache.hadoop.hdfs.DFSOutputStream $ DataStreamer.run(DFSOutputStream.java:487)

不久之後,沒有HRegionServer存活。 我不得不配置HDFS-site.xml中與

<property> 
<name>dfs.client.block.write.replace-datanode-on-failure.enable</name> 
<value>true</value> </property> 
<property> <name>dfs.client.block.write.replace-datanode-on-failure.policy</name> 
<value>NEVER</value> 
</property> 

它仍然記錄此WARN,我有谷歌,但沒有到do.So,任何人可以幫助我嗎?

回答

1

這可能是由於超時屬性 在HBase的-site.xml中

<property> 
    <name>dfs.client.socket-timeout</name> 
    <value>600000</value> 
</property> 

它600S但在HDFS-site.xml中我不設置它可能是默認設置。 所以同步是不同的。 決心: 設置在HDFS-site.xml中

<property> 
    <name>dfs.client.socket-timeout</name> 
    <value>600000</value> 
</property> 

比它的工作相同的屬性...

參考 - >http://blog.csdn.net/zhaokunwu/article/details/7336892

相關問題