经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据/云/AI » Hadoop » 查看文章
hadoop2-HBase的安装和测试
来源:cnblogs  作者:Hongten  时间:2018/11/3 9:53:24  对本文有异议

在安装和测试HBase之前,我们有必要先了解一下HBase是什么

我们可以通过下面的资料对其有一定的了解:

HBase 官方文档中文版

HBase 深入浅出

我想把我知道的分享给大家,方便大家交流。

以下是本文的大纲:

1.Hadoop集群环境搭建
2.Hbase的介绍
3.单机模式解压和安装HBase
       3.1.创建t_student表
       3.2.查看表t_student
       3.3.查看表结构
       3.4.插入数据
       3.5.查询table
4.完全分布式模式解压和安装HBase
       4.1.创建t_student表
       4.2.插入数据
       4.3.数据从内存写入到磁盘
       4.4.再次插入数据
       4.5.再次把数据写入到磁盘
       4.6.手动合并文件
       4.7.查看文件内容

 

若有不正之处,还请多多谅解,并希望批评指正。

请尊重作者劳动成果,转发请标明blog地址

https://www.cnblogs.com/hongten/p/hongten_hadoop_hbase.html

 

正所谓磨刀不费砍材功,下面的工具大家可以先下载备用。

环境及工具:

Windows 7 (64位)下面的虚拟机(64位):VMware-workstation-full-14.0.0-6661328.exe

Linux操作系统:CentOS-6.5-x86_64-bin-DVD1.iso

Xshell:Xshell-6.0.0101p.exe  

WinSCP:从windows上面上传文件到Linux

JDK:jdk-7u67-linux-x64.rpm

zookeeper:zookeeper-3.4.6.tar.gz

hadoop:hadoop-2.5.1_x64.tar.gz  

链接:https://pan.baidu.com/s/1hvdbGUh488Gl1EF2v44BIw 
提取码:ncdd

Hbase: hbase-0.98.9-hadoop2-bin.tar.gz

 

1.Hadoop集群环境搭建

在做Hbase安装和测试之前,我们有必要把 Hadoop2集群环境搭建 好。

 

2.Hbase的介绍

  1. Hadoop Database, 是一个高可靠性,高性能,面向列,可伸缩,实时读写的分布式数据库。
  2. 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务
  3. 主要用来存储非结构化和半结构化的松散数据(列存NoSQL数据库)
  4. Column Family 列族
  5. HBase表中的每个列都归属某个列族,列族必须作为表模式(schema)定义的一部分预先给出,如: create 'test', 'course';
  6. 列名以列族作为前缀,每个'列族'都可以有多个列成员(column);如course:math, course:english,新的列族成语(列)可以随时按需,动态加入
  7. 权限控制,存储以及调优都在列族层面进行的;
  8. HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。
  9. HBase体系架构
  10. Client 包含访问HBase的接口并维护cache来加快对HBase的访问
  11. Zookeeper
  12. 1. 保证任何时候,集群中只有一个master
  13. 2. 存储所有Region的寻址入口
  14. 3. 实时监控Region Server的上线和下线信息,并实时通知master
  15. 4. 存储Hbaseschematable元数据
  16. Master:
  17. 1. Region Server分配region
  18. 2. 负责Region Server的负载均衡
  19. 3. 发现失效的Region Server并重新分配其上的region
  20. 4. 管理用户对table的增删改操作
  21. Region Server
  22. 1. 维护region,处理对这些regionIO请求
  23. 2. 负责切分在运行过程中变的过大的region
  24. Rgion
  25. 1. HBase自动把表水平分成多个区域(region),每个region会报错一个表里面某段连续的数据;每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阈值的时候,region就会等分两个新的region(裂变)
  26. 2. table中的行不断增多,就会有越来越多的region,这样一张完整的表被保存在多个Region Server上。
  27. Memstorestorefile
  28. 1. 一个region由多个store组成,一个sote对应一个CF(列族)
  29. 2. sotre包含位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,region server会启动flashcache进程写入storefile,每次写入形成单独的一个storefile。(这样在一个region里面就会产生很多个storefile
  30. 3. storefile文件的数量增长到一定阈值后,系统会进行合并(Minor Major Compaction),在合并过程中贵进行版本合并和删除工作(Major),形成更大的storefile
  31. 4. 当一个region所有storefile的大小和超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的region server服务器,实现负载均衡。
  32. 5. 客户端检索数据,现在memstore找,找不到再找storefile

 

3.单机模式解压和安装HBase

  1. --单机模式解压和安装HBase
  2. tar -zxvf hbase-0.98.9-hadoop2-bin.tar.gz
  3. --创建软链
  4. ln -sf /root/hbase-0.98.9-hadoop2 /home/hbase
  5. --配置java环境变量
  6. cd /home/hbase/conf/
  7. vi hbase-env.sh
  8. --jdk必须在1.6以上
  9. export JAVA_HOME=/usr/java/jdk1.7.0_67
  10. :wq
  11. --修改hbase-site.xml文件,数据保存到本地
  12. vi hbase-site.xml
  13. <configuration>
  14. <property>
  15. <name>hbase.rootdir</name>
  16. <value>file:///opt/hbase</value>
  17. </property>
  18. </configuration>
  19. :wq
  20. --关闭防火墙
  21. service iptables stop
  22. --启动HBase
  23. cd /home/hbase/bin/
  24. ./start-hbase.sh
  25. --检查是否已经启动
  26. jps
  27. --查看是否有HMaster进程
  28.  
  29. --查看监听的端口
  30. netstat -naptl | grep java
  31. --启动浏览器访问
  32. http://node4:60010

 

3.1.创建t_student表

  1. --进入hbase
  2. cd /home/hbase/bin/
  3. ./hbase shell
  4. --创建t_student
  5. create 't_student' , 'cf1'
  6. hbase(main):003:0> create 't_student' , 'cf1'
  7. 0 row(s) in 0.4000 seconds

 

3.2.查看表t_student

  1. --查看表
  2. list
  3. hbase(main):004:0> list
  4. TABLE
  5. t_student
  6. 1 row(s) in 0.0510 seconds

 

3.3.查看表结构

  1. --查看表结构
  2. desc 't_student'
  3. hbase(main):005:0> desc 't_student'
  4. Table t_student is ENABLED
  5. COLUMN FAMILIES DESCRIPTION
  6. {NAME => 'cf1', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'ROW', REPLICATION_SCOPE => '
  7. 0', VERSIONS => '1', COMPRESSION => 'NONE', MIN_VERSIONS => '0', TTL => 'FOREVER', KEEP_DEL
  8. ETED_CELLS => 'FALSE', BLOCKSIZE => '65536', IN_MEMORY => 'false', BLOCKCACHE => 'true'}
  9. 1 row(s) in 0.1310 seconds

 

3.4.插入数据

  1. --插入数据
  2. put 't_student' , '007', 'cf1:name', 'hongten'
  3. hbase(main):006:0> put 't_student' , '007', 'cf1:name', 'hongten'
  4. 0 row(s) in 0.1750 seconds

 

3.5.查询table

  1. --查询table
  2. hbase(main):007:0> scan 't_student'
  3. ROW COLUMN+CELL
  4. 007 column=cf1:name, timestamp=1541162668222, value=hongten
  5. 1 row(s) in 0.0670 seconds

 

4.完全分布式模式解压和安装HBase

  1. --完全分布式模式解压和安装HBase
  2. --拷贝hbase-0.98.9-hadoop2-bin.tar.gz从节点node1node2 node3 node4节点上
  3. scp /root/hbase-0.98.9-hadoop2-bin.tar.gz root@node2:~/
  4. scp /root/hbase-0.98.9-hadoop2-bin.tar.gz root@node3:~/
  5. scp /root/hbase-0.98.9-hadoop2-bin.tar.gz root@node4:~/
  6.  
  7.  
  8. --解压缩文件
  9. tar zxvf hbase-0.98.9-hadoop2-bin.tar.gz
  10. --创建软链
  11. ln -sf /root/hbase-0.98.9-hadoop2 /home/hbase
  12. cd /home/hbase/conf/
  13. vi hbase-site.xml
  14. --mycluster为集群名称
  15. <property>
  16. <name>hbase.rootdir</name>
  17. <value>hdfs://mycluster/hbase</value>
  18. <description>The directory shared by RegionServers.</description>
  19. </property>
  20. <property>
  21. <name>hbase.cluster.distributed</name>
  22. <value>true</value>
  23. <description>The mode the cluster will be in. Possible values are false: standalone and pseudo-distributed setups with managed Zookeeper true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)</description>
  24. </property>
  25.  
  26. <property>
  27. <name>hbase.zookeeper.quorum</name>
  28. <value>node1,node2,node3</value>
  29. <description>Comma separated list of servers in the ZooKeeper Quorum.
  30. For example, "host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".
  31. By default this is set to localhost for local and pseudo-distributed modes
  32. of operation. For a fully-distributed setup, this should be set to a full
  33. list of ZooKeeper quorum servers. If HBASE_MANAGES_ZK is set in hbase-env.sh
  34. this is the list of servers which we will start/stop ZooKeeper on.
  35. </description>
  36. </property>
  37. <property>
  38. <name>hbase.zookeeper.property.dataDir</name>
  39. <value>/opt/zookeeper</value>
  40. <description>Property from ZooKeeper's config zoo.cfg.
  41. The directory where the snapshot is stored.
  42. </description>
  43. </property>
  44. :wq
  45. --修改regionservers文件,该文件列出所有region server主机的hostname
  46. vi regionservers
  47. node1
  48. node2
  49. node3
  50. node4
  51. :wq
  52. --修改hbase-env.sh文件
  53. vi hbase-env.sh
  54. --修改java环境变量
  55. export JAVA_HOME=/usr/java/jdk1.7.0_67
  56.  
  57. --默认为true,使用hbase自带的zookeeper
  58. --修改为false,使用我们自定义的zookeeper
  59. export HBASE_MANAGES_ZK=false
  60. :wq
  61. --使得Hadoop和HBase关联起来
  62. --把hadoop的配置文件hdfs-site.xml拷贝到/home/hbase/conf/目录
  63. cd /home/hbase/conf/
  64. cp -a /home/hadoop-2.5/etc/hadoop/hdfs-site.xml .
  65. --把同样的配置从node1拷贝到node2,node3,node4上面去scp /home/hbase/conf/* root@node2:/home/hbase/conf/scp /home/hbase/conf/* root@node3:/home/hbase/conf/scp /home/hbase/conf/* root@node4:/home/hbase/conf/
  66.  
  67. --关闭所有节点上的防火墙(node1, node2, node3, node4)
  68. service iptables stop
  69. --在启动HBase之前,我们需要确保zookeeper和hadoop都已经启动
  70. --我们这里在node1,node2,node3,node4上面都有配置hbase,
  71. --启动的时候,随便选择一个节点启动hbase,由于我们之前有配置免密码登录
  72. --所以我们在node1上面启动hbase
  73. cd /home/hbase/bin/
  74. ./start-hbase.sh
  75. 输出结果:
  76. [root@node1 bin]# ./start-hbase.sh
  77. starting master, logging to /home/hbase/bin/../logs/hbase-root-master-node1.out
  78. node3: starting regionserver, logging to /home/hbase/bin/../logs/hbase-root-regionserver-node3.out
  79. node1: starting regionserver, logging to /home/hbase/bin/../logs/hbase-root-regionserver-node1.out
  80. node4: starting regionserver, logging to /home/hbase/bin/../logs/hbase-root-regionserver-node4.out
  81. node2: starting regionserver, logging to /home/hbase/bin/../logs/hbase-root-regionserver-node2.out
  82. --可以在node4上面启动master
  83. cd /home/hbase/bin/
  84. ./hbase-daemon.sh start master
  85. 输出结果:
  86. [root@node4 bin]# ./hbase-daemon.sh start master
  87. starting master, logging to /home/hbase/bin/../logs/hbase-root-master-node4.out
  88. [root@node4 bin]# jps
  89. 28630 HRegionServer
  90. 28014 NodeManager
  91. 29096 Jps
  92. 29004 HMaster
  93. 27923 JournalNode
  94. 27835 DataNode
  95. --浏览器输入
  96. http://node1:60010

 

我们在浏览器里面输入http://node1:60010

可以进入Hbase的管理界面,我们可以看到我们在4个节点(node1,node2, node3,node4)上都部署了Region Server。

 

4.1.创建t_student表

  1. --创建t_student
  2. create 't_student' , 'cf1'

 

4.2.插入数据

此时的数据还在memstore里面(即HBase的管理的内存里面)

  1. --插入数据
  2. put 't_student' , '007', 'cf1:name', 'hongten'

 

4.3.数据从内存写入到磁盘

把memstore的数据写入到storefile里面

  1. --把数据从内存写入到磁盘
  2. flush 't_student'

 

4.4.再次插入数据

  1. put 't_student' , '001', 'cf1:name', 'Tom'
  2. put 't_student' , '002', 'cf1:name', 'Dive'

 

4.5.再次把数据写入到磁盘

  1. --把数据从内存写入到磁盘
  2. flush 't_student'

 

此时我们可以看到,在HDFS上面有两个文件

 

4.6.手动合并文件

  1. --手动合并文件
  2. major_compact 't_student'

 

合并之后,两个文件变成了一个文件

 

4.7.查看文件内容

上面文件的全路径

  1. --查看文件内容
  2. [root@node1 bin]# ./hbase hfile -p -f /hbase/data/default/t_student/022f94b777d76684d7f66e4fcd66cdaf/cf1/8efb9596ac774e839f0775efc55a8ab7
  3. SLF4J: Class path contains multiple SLF4J bindings.
  4. SLF4J: Found binding in [jar:file:/root/hbase-0.98.9-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
  5. SLF4J: Found binding in [jar:file:/root/hadoop-2.5.1/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
  6. SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
  7. 2018-11-02 08:55:29,281 INFO [main] Configuration.deprecation: fs.default.name is deprecated. Instead, use fs.defaultFS
  8. 2018-11-02 08:55:29,429 INFO [main] Configuration.deprecation: hadoop.native.lib is deprecated. Instead, use io.native.lib.available
  9. 2018-11-02 08:55:29,732 INFO [main] util.ChecksumType: Checksum using org.apache.hadoop.util.PureJavaCrc32
  10. 2018-11-02 08:55:29,734 INFO [main] util.ChecksumType: Checksum can use org.apache.hadoop.util.PureJavaCrc32C
  11. K: 001/cf1:name/1541173663169/Put/vlen=3/mvcc=0 V: Tom
  12. K: 002/cf1:name/1541173670882/Put/vlen=4/mvcc=0 V: Dive
  13. K: 007/cf1:name/1541173242683/Put/vlen=7/mvcc=0 V: hongten
  14. Scanned kv count -> 3

 

========================================================

More reading,and english is important.

I'm Hongten

 

  1. 大哥哥大姐姐,觉得有用打赏点哦!你的支持是我最大的动力。谢谢。
    Hongten博客排名在100名以内。粉丝过千。
    Hongten出品,必是精品。

E | hongtenzone@foxmail.com  B | http://www.cnblogs.com/hongten

======================================================== 

 

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号