2.2 配置 Hbase
步骤1: copy Hbase 到 /opt/module/software
目录下
步骤2: 解压 Hbase
tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module/
步骤3: 添加 Hbase 的环境变量(可选)
为了执行 Hbase 的命令方便, 可以把 Hbase 添加到 path
中.
打开/etc/profile
文件, 添加如下 2 个环境变量:
export HBASE_HOME=/opt/module/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin
步骤4: 修改 conf/hbase-env.sh
文件
# 配置 JAVA_HOME 改成自己的路径
export JAVA_HOME=/opt/module/jdk1.8.0_144
# 是否使用 Hbase 内置的 Zookeeper. 改成false, 使用我们以前配置的 Zookeeper
export HBASE_MANAGES_ZK=false
步骤5: 修改 conf/hbase-site.xml
<!-- hbase 在 hdfs 上存储数据时的目录 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop201:9000/hbase</value>
</property>
<!-- 是否开启集群 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- master 的端口号 0.98后的新变动,之前版本没有.port,默认端口为16000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<!-- 配置 Zookeeper -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop201:2181,hadoop202:2181,hadoop203:2181</value>
</property>
<!-- Zookeeper 的 dataDir 目录 -->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.13/zkData</value>
</property>
步骤6: 修改conf/regionservers
文件
这个类似于 Hadoop 中的 slaves 文件, 用来配置 Hbase 集群中的 RegionServer 的.
hadoop201
hadoop202
hadoop203
步骤7: 让 Hbase 知道你的 Hadoop 的配置
由于 Hbase 需要向 HDFS 中写入数据, 所以, Hbase 需要知道你的 Hadoop 的一些配置.
有 3 种办法可以达到这一的目的, 选择其中一种即可.
在
hbase-env.sh
文件中添加一个变量HBASE_CLASSPATH
, 让它指向HADOOP_CONF_DIR
把
hdfs-site.xml和core-site.xml
copy 到conf
目录下, 或者更好的方式: 创建一个到hdfs-site.xml, core-site.xml
的软连接ln -s /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml ln -s /opt/module/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml
如果
hdfs
的配置比较少, 直接 copy 到hbase-site.xml
文件中.
推荐第 1 种方式, 或者 第 2 种创建软连接的方式.
在这里我选择第 1 种方式:
# 注意路径要是你自己的 Hadoop 的配置文件的路径
export HBASE_CLASSPATH=/opt/module/hadoop-2.7.2/etc/hadoop