本文环境与上一讲--完全分布式Hadoop集群配置一致。OS是Ubuntu Server 10.04,HBase版本是0.20.6。
HRegionServer&HQuorumPeer:dm1,IP:192.168.0.17; HRegionServer&HQuorumPeer:dm2,IP:192.168.0.18; HRegionServer&HQuorumPeer:dm3,IP:192.168.0.9;
HMaster&NameNode:dm4,IP:192.168.0.10;(SecondaryNameNode)
虽然secondarynamenode和namenode放在同一台机器上比较不合理。但是考虑到这只是个实验的小集群(硬件环境不允许),再者有xenserver的时序快照的保障,就不将SecondaryNameNode部署在其他机器上了。
主要的还是配置工作,依然将HBase放在/home下,编辑/home/hbase/conf下的hbase-site.xml,hbase-default.xml,hbase-env.sh 这几个文件。具体步骤如下: 一.编辑所有机器上的hbase-site文件,命令如下: 1 vi /home/hbase/conf/hbase-site.xml 编辑文件如下列代码所示。注意项有2:
1.其中首先需要注意hdfs://dm4:9000/hbase这里,必须与你的Hadoop集群的core-site.xml文件配置保持完全一致才行,如果你Hadoop的hdfs使用了其它端口,请在这里也修改。再者就是Hbase该项并不识别机器IP,只能使用机器hostname才可行,即若使用dm4的IP(192.168.0.10)是会抛出java错误,至于具体的错误由于时间久远,我就懒得去翻查那大量的log了。
2.hbase.zookeeper.quorum 的个数必须是奇数。 1 7
HBase的数据重启就被擦掉,如果需要数据持久化的,就修改rootdir项,写定你的HDFS目录。
至于default内其它的项的含义与修改,再请参考官网。 1 14 export HBASE_OPTS=\"$HBASE_OPTS -XX:+HeapDumpOnOutOfMemoryError 1 -XX:+UseConcMarkS 2 weepGC -XX:+CMSIncrementalMode\" 3 export JAVA_HOME=/usr/lib/jvm/java-6-sun-1.6.0.22 4 export HBASE_MANAGES_ZK=true 5 export HBASE_HOME=/home/hbase 6 export HADOOP_HOME=/home/hadoop 四.编辑所有机器的HBase的HMasters和HRegionServers。修改/home/hbase/conf 文件夹下的regionservers文 件。添加DataNode的IP即可。代码如下: 1 192.168.0.9 2 192.168.0.17 3 192.168.0.18 行文至此,HBase集群的配置已然完成。以下便是启动和测试。 五.启动.测试HBase数据库。 在HMaster即Namenode (dm4)启动HBase数据库(Hadoop集群必须已经启动)。 启动命令: 1 /home/hbase/bin/start-hbase.sh 3 Hbase启动如下图所示: 最好输入JPS命令测试一下你当前Hbase集群进程。如下图: 然后输入如下命令进入hbase的命令行管理界面: 1 /home/hbase/bin/hbase shell 在hbase shell下 输入list,如下所示,列举你当前数据库的名称,如下图所示。如果你的Hbase没配置成功会抛出java错误。 我们也可以通过WEB页面来管理查看HBase数据库。 HMaster:http://192.168.0.10:60010/master.jsp 我的HBase数据库截图: 4 至于HBase的命令参见:Hadoop Wiki HBase数据库的开发应用,包括数据库读写和条件查询等,请参见我未来的文章…… 六.参考文献 1.HBase: Bigtable-like structured storage for Hadoop HDFS http://wiki.apache.org/hadoop/Hbase 2.HBase Testing Tutorial http://wiki.apache.org/hadoop/Hbase/HowToTest 5 因篇幅问题不能全部显示,请点此查看更多更全内容