Hbase安装
第五节 Hbase安装
主节点安装 hbase
安装 hbase
解压
配置 hbase 集群
把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase/conf
修改 环境变量
1
2
3
4
5Vi /etc/profileexport JAVA_HOME=/usr/app/jdk1.8.0_77
export HADOOP_HOME=/usr/app/hadoop-2.7.3
export HBASE_HOME=/usr/app/hbase-1.2.6
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin
# 注意:source /etc/profile (刷新环境变量配置文件)
修改 hbase-site.xml 配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21<configuration>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定 hbase 是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop11:2181,hadoop12:2181,hadoop13:2181</value>
</property>
</configuration>增加 slave 的集群
拷贝 hbase 到其他节点
启动所有的 hbase
通过浏览器访问 hbase 管理页面
为保证集群的可靠性,要启动多个 HMaster
HBase Shell命令行操作
启动HBase Shell
创建表,需要创建表明,另外需要指定列簇(column family)。表名和列簇名都需要使用引号括起来。
向表中加入数据。这里使用关键字put。
- 删除表。连表也删除掉,使用关键字drop,但是不能直接drop,在drop之前需要先disable。
disable 'test'
drop 'test'
至此,Hbase安装完成 下节MYSQL安装
# 相关文章
1.VMware16安装_Ubuntu
2.scala安装
3.spark安装
4.Centos7 安装
5.Hadoop2.7 安装
6.Zookeeper安装
7.主节点安装 MySql
8.主节点安装 Hive
1.VMware16安装_Ubuntu
2.scala安装
3.spark安装
4.Centos7 安装
5.Hadoop2.7 安装
6.Zookeeper安装
7.主节点安装 MySql
8.主节点安装 Hive