创建表hbase_test有两个列族CF1和CF2
- 向表中添加数据,在向HBase的表中添加数据的时候,只能一列一列的添加,不能同时添加多列。
create 'hbase_test',{NAME=>'cf1'},{NAME=>'cf2'} put 'hbase_test', '001','cf1:name','liz'; put 'hbase_test', '001','cf1:age','11'; put 'hbase_test', '001','cf1:phone','1598791111'; put 'hbase_test', '001','cf1:address','南京';
- 查看表中的所有数据
scan 'hbase_test'
- 查看其中某一个Key的数据
get 'hbase_test','001'
- hbase的表支持动态加入列的,比如说列族cf下面有两列,再添加数据时,可以在动态的加一列。
Hbase导入功能的实现:
-
直接导入到表
新建测试表 create 'hbase_import',{NAME=>'cf1'},{NAME=>'cf2'} 创建数据 上传到HDFS vi hbase_import.txt 1,"tom",18 2,"liz",19 3,"xiami",22 hadoop fs -put /home/hadoop/data/hbase_import.txt /data 导入 bin/hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," -Dimporttsv.columns=HBASE_ROW_KEY,cf1:name,cf1:age hbase_import hdfs://hadoop001:8020/data/hbase_import.txt
- 生成Hfile的导入方式
create 'hbase_import01',{NAME=>'cf1'},{NAME=>'cf2'}
上传文件
hadoop fs -put /home/hadoop/data/hbase_import01.txt /data
生成HFile(指定输出文件路径 表名称 和输入路径)
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv '-Dimporttsv.separator=,' -Dimporttsv.columns='HBASE_ROW_KEY,cf1:name,cf1:age' -Dimporttsv.bulk.output=hdfs://hadoop001:8020/data/hbase/test/output hbase_import01 hdfs://hadoop001:8020/data/hbase/test
执行LoadIncrementalHFiles把HFile注册到hbase中
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles hdfs://hadoop001:8020/data/hbase/test/output hbase_import01
参考
https://blog.csdn.net/zzq900503/article/details/79643855