`
sunbin
  • 浏览: 342425 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

hbase安装

 
阅读更多

hbase运行在hadoop基础上。

我的环境变量

 

export JAVA_HOME=/usr/local/runtime/jdk
export HADOOP_PREFIX=/usr/local/runtime/hadoop
export HIVE_HOME=/usr/local/runtime/hive
export HBASE_HOME=/usr/local/runtime/hbase
export ZOOKEEPER_HOME=/usr/local/runtime/zookeeper
export JRE_HOME=/usr/local/runtime/jdk/jre
export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$HADOOP_PREFIX/bin:$HIVE_HOME/bin:$HBASE_HOME/bin:$HADOOP_PREFIX/sbin

 修改配置文件hbase-env.sh 

 

 

export JAVA_HOME=/usr/local/runtime/jdk

 一、单机版,一般不用

 

 

1、无需hadoop,不能与zookeeper在同一台电脑上。配置hbase-site.xml
<configuration>
  <property>
  <name>hbase.rootdir</name>
  <value>file:///home/testuser/hbase</value>
  </property>
  <property>
  <name>hbase.zookeeper.property.dataDir</name>
  <value>/home/testuser/zookeeper</value>
  </property>
  <property>
  <name>hbase.unsafe.stream.capability.enforce</name>
  <value>false</value>
  </property>
</configuration>
2、启动/usr/local/hbase-2.1.3/bin/start-hbase.sh

   二、伪分布式搭建

 

 

1> 所有进程运行在同一个节点上,不同进程运行在不同的JVM当中
2> 比较适合实验测试
3> 伪分布式的ZK可以使用外部ZK,也可以使用内置ZK
1、配置hbase-site.xml(内置ZK配置)
<configuration>
<!-- 设置HRegionServers共享目录,用来持久化 HBase
注意:hbase.rootdir里面的HDFS地址是要跟 Hadoop的core-site.xml 
里面的 fs.defaultFS 的 HDFS 的 IP 地址或者域名、端口必须一致
-->
  <property>
  <name>hbase.rootdir</name>
  <value>hdfs://PCS102:9820/hbase</value>
</property> 
<property>
  <name>hbase.zookeeper.property.dataDir</name>
  <value>/home/testuser/zookeeper</value>
  </property>
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>
</configuration>

2、配置regionservers

[root@PCS102 conf]# vi /usr/local/hbase-2.1.3/conf/regionservers
该配置列出regionserver节点清单,默认为localhost,这里改成PCS102 当前节点域名

3、	启动HBase(注意Hbase和hadoop版本 否则启动不成功)
hbase-daemon.sh start zookeeper 
hbase-daemon.sh start master 
hbase-daemon.sh start regionserver
可以在/usr/local/hbase-2.1.3/logs下查看日志
查看HDFS
hdfs dfs -ls /hbase

 

 

 三、完全分布式搭建

节点

NN

DN

ZK

Master

Backup-Master

RegionServer

node1

1

 

1

1

 

 

node2

1

1

1

 

 

1

node3

 

1

1

 

 

1

node4

 

1

 

 

 

1

node5

 

 

 

 

1

 

1、	配置hbase-env.sh
配置JAVA环境变量:export JAVA_HOME=/usr/local/jdk1.8.0_65
配置使用外部ZK:HBASE_MANAGERS_ZK=true
2、	配置hbase.site.xml
<configuration>
  <property>
  <name>hbase.rootdir</name>
  <value>hdfs://hdfscluster:9820/hbase</value>
  </property>
  <property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
  </property>
  #ZK清单
  <property>
  <name>hbase.zookeeper.quorum</name>
  <value>node1,node2,node3</value>
  </property>
</configuration>

3、	配置regionservers、根据规划,配置regionserver节点清单
node2
node3
node4

4、	配置backup-masters(/usr/local/hbase-2.1.3/conf没有这个文件 需要新建一个)
根据规划,配置Backup-Master节点清单
node5


5、拷贝hadoop配置hdfs-site.xml(强调:hadoop版本和hbase版本对应问题)
[root@node1 conf]# cp /usr/local/hadoop-3.1.1/etc/hadoop/hdfs-site.xml ./

6、分发hbase目录到所有节点
[root@node1 local]# scp -r ./hbase-2.1.3 node2:`pwd`
[root@node1 local]# scp -r ./hbase-2.1.3 node3:`pwd`
[root@node1 local]# scp -r ./hbase-2.1.3 node4:`pwd`
[root@node1 local]# scp -r ./hbase-2.1.3 node5:`pwd`

7、启动HBase
[root@node1 local]# start-hbase.sh

8、Hbase shell进行表相关操作
[root@node5 local]# hbase shell

9、停止
stop-hbase.sh

 

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics