当前位置首页 > Ubuntu知识

ubuntu下hbase的伪分布式安装与配置

阅读次数:295 次  来源:admin  发布时间:

1.hadoop版本:hadoop-1.1.1,HBase版本:hbase-0.94.3

2.到官方网站下载好hbase-0.94.3.tar.gz,解压hbase安装包到一个可用目录如(/home/hadoop/hbase-0.94.3/)

root@ubuntu:/home/hadoop# sudo tar zxvf hbase-0.94.3.tar.gz

设置hbase-0.94.3所在用户为hadoop,所在组为hadoop(root用户操作)

root@ubuntu:/home/hadoop# chown -R hadoop hbase-0.94.3

root@ubuntu:/home/hadoop# chgrp -R hadoop hbase-0.94.3

或者

root@ubuntu:/home/hadoop# chown -R hadoop:hadoop hbase-0.94.3

3.设置环境变量:在/etc/profile和/home/hadoop/.bashrc中配置添加(红色字体的)

#set java environment

HBASE_HOME=/home/hadoop/hbase-0.94.3

HIVE_HOME=/home/hadoop/hive-0.9.0

HADOOP_HOME=/home/hadoop/hadoop-1.1.1

JAVA_HOME=/home/hadoop/jdk1.7.0

PATH=$JAVA_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$HBASE_HOME/lib:$HIVE_HOME/lib:$JAVA_HOME/lib/tools.jar

export HBASE_HOME

export HADOOP_HOME

export JAVA_HOME

export HIVE_HOME

export PATH

export CLASSPATH

4.hbase配置:

在$HBASE_HOME/conf/hbase-env.sh中配置添加(红色字体的)

#set java environment

HBASE_HOME=/home/hadoop/hbase-0.94.3

HIVE_HOME=/home/hadoop/hive-0.9.0

HADOOP_HOME=/home/hadoop/hadoop-1.1.1

JAVA_HOME=/home/hadoop/jdk1.7.0

PATH=$JAVA_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$HBASE_HOME/lib:$HIVE_HOME/lib:$JAVA_HOME/lib/tools.jar

export HBASE_HOME

export HADOOP_HOME

export JAVA_HOME

export HIVE_HOME

export PATH

export CLASSPATH

如果想使用HBase自带的zookeeper,要添加export HBASE_MANAGES_ZK=true

在$HBASE_HOME/conf目录中,确保hbase-site中的hbase.rootdir的主机和端口号与$HADOOP_HOME/conf目录中core-site.xml中的fs.default.name的主机和端口号一致,添加如下内容:

<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://192.168.11.157:54310/hbase</value>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.master</name>
        <value>192.168.11.157:54311</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>192.168.11.157</value>
    </property>
</configuration>

5.先启动hadoop,再启动hbase:

hadoop@ubuntu:~/hadoop-1.1.1/bin$ ./start-all.sh #启动hadoo

hadoop@ubuntu:~/hadoop-1.1.1/bin$ jps #查看hadoop启动情况,确认DataNode,SecondaryNameNode,DataNode,JobTracker,TaskTracker全部启动

8163 DataNode

10343 J

8443 JobTracker

7990 NameNode

8615 TaskTracker

8358 SecondaryNameNode

hadoop@ubuntu:~/hbase-0.94.3/bin$ ./start-hbase.sh #确认hadoop完全启动后启动hbase

hadoop@ubuntu:~/hbase-0.94.3/bin$ jps #查看hbase启动情况,确认HQuorumPeer,HMaster,HRegionServer全部启动

8163 DataNode

10343 J

9060 HQuorumPeer

8443 JobTracker

9370 HRegionServer

7990 NameNode

9170 HMaster

8615 TaskTracker

8358 SecondaryNameNode

hadoop@ubuntu:~/hbase-0.94.3/bin$

hadoop@ubuntu:/home$ hbase -version #查看hbase版本,表示hbase安装成功

java version "1.7.0"

Java(TM) SE Runtime Environment (build 1.7.0-b147)

Java HotSpot(TM) Client VM (build 21.0-b17, mixed mode)

hadoop@ubuntu:/home$

注:hbase启动可能会出错导致失败,这时需要将$HADOOP_HOME/hadoop-core-*.*.*.jar和$HADOOP_HOME/lib目录下的commons-configuration-*.*.jar拷贝到$HBASE_HOME/lib目录下,删除$HBASE_HOME/lib目录下的hadoop-core-*.jar,避免版本冲突和不兼容。

上一篇:在Ubuntu20.04上安装Chromium
下一篇:【转】Nginx系列(三)--管理进程、多工作进程设计