在我们本地服务器上的 HDFS 之上成功安装和配置 HBase 后,我在我们的 OVH VPS 机器上做了相同的配置,但是我收到一个奇怪的错误。
整个设置开始正常,但是,当我尝试从 hbase shell 创建表时,出现以下错误:
2017-05-20 11:59:19,256 错误 [RpcServer.FifoWFPBQ.default.handler=29,queue=2,port=16000] master.MasterRpcServices:区域服务器 prdhad001、16020、1495274311971 报告了区域服务器 prdhad001、16020、1495274311971 的致命错误 10 ,16020,1495274311971: 协处理器 org.apache.hadoop.hbase.client.coprocessor.AggregateImplementation 抛出 java.lang.ClassNotFoundException: org.apache.hadoop.hbase.client.coprocessor.AggregateImplementation 原因: java.lang.ClassNotFoundException: org. apache.hadoop.hbase.client.coprocessor.AggregateImplementation at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
在那之后,整个 hbase 被损坏并引发了许多错误。似乎它没有正确加载一些 jar,但是 jar 存在于 lib 文件夹中。
我的配置:
虚拟化:kvm 操作系统:CentOS Linux 7 (Core)
CPE OS 名称:cpe:/o:centos:centos:7
内核:Linux 3.10.0-514.16.1.el7.x86_64
架构:x86-64 Hadoop 2.7 .3 HBase 1.3.0export PATH=$PATH:$HADOOP_HOME/bin export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" export HBASE_CLASSPATH=/usr/lib
我想通了,在 hbase-site.xml 中,我添加了以下属性:
<property>
<name>hbase.coprocessor.region.classes</name>
<value>org.apache.hadoop.hbase.coprocessor.AggregateImplementation</value>
</property>
用于协处理器,我们目前不使用。删除这部分解决了这个问题,但是,我想如果我们将来想使用协处理器,我们可能会再次遇到这个问题,请做任何其他帮助将不胜感激。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句