自定义hbase协处理器失败 10C

代码 ---
public class Util {

public static String getRegNo(String callerId , String callTime){
    //区域00-99
    int hash = (callerId + callTime.substring(0, 6)).hashCode();
    hash =(hash & Integer.MAX_VALUE) % 100;

    //hash区域号
    DecimalFormat df = new DecimalFormat();
    df.applyPattern("00");
    String regNo = df.format(hash);
    return regNo ;
}

public class CalleeLogRegionObserver extends BaseRegionObserver{

public void postPut(ObserverContext<RegionCoprocessorEnvironment> e, Put put, WALEdit edit, Durability durability) throws IOException {
    FileWriter fw = new FileWriter("/home/centos/kkk.txt",true);

    super.postPut(e, put, edit, durability);
    //
    String tableName0 = TableName.valueOf("ns1:calllogs").getNameAsString();
    //得到当前的TableName对象
    String tableName1 = e.getEnvironment().getRegion().getRegionInfo().getTable().getNameAsString();
    fw.write(tableName1 + "\r\n");
    if(!tableName0.equals(tableName1)){
        return  ;
    }

    //得到主叫的rowkey
    //xx , callerid , time ,  direction, calleid  ,duration
    //被叫:calleid,time,

    String rowkey = Bytes.toString(put.getRow());
    String[] arr = rowkey.split(",");
    if(arr[3].equals("1")){
        return ;
    }


    String hash = Util.getRegNo(arr[4], arr[2]);
    //hash

    String newRowKey = hash + "," + arr[4] + "," + arr[2] + ",1," + arr[1] + "," + arr[5];
    Put newPut = new Put(Bytes.toBytes(newRowKey));
    newPut.addColumn(Bytes.toBytes("f1"), Bytes.toBytes("dummy"), Bytes.toBytes("no"));
    TableName tn = TableName.valueOf("ns1:calllogs");
    Table t = e.getEnvironment().getTable(tn);
    //
    fw.write(t.getName().getNameAsString() + "\r\n");
    t.put(newPut);
    fw.close();
}

public void preGetOp(ObserverContext<RegionCoprocessorEnvironment> e, Get get, List<Cell> results) throws IOException {
    super.preGetOp(e, get, results);

}

-- 配置
<!-- 启用完全分布式 -->

hbase.cluster.distributed
true

        <!-- 指定hbase数据在hdfs上的存放路径 -->
        <property>
            <name>hbase.rootdir</name>
            <value>hdfs://mycluster/hbase</value>
        </property>
        <!-- 配置zk地址 -->
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>s101:2181,s102:2181,s103:2181</value>
        </property>
        <!-- zk的本地目录 -->
        <property>
            <name>hbase.zookeeper.property.dataDir</name>
            <value>/home/centos/zookeeper</value>
        </property>


        <!--协处理器 -->
          <property>
                            <name>hbase.coprocessor.region.classes</name>
            <value>com.tjx.hbasedemo.coprocessor.CalleeLogRegionObserver</value>
          </property>

我再重启hbase 的时候没有在主目录下 生成 kkk.txt 文件,也没有报错,就是调用不了协处理器器

------------------------------------------------------------插入代码
@Test
public void testPut() throws Exception{
//创建conf对象
Configuration conf = HBaseConfiguration.create();
//通过连接工厂创建连接对象
Connection conn = ConnectionFactory.createConnection(conf);
//通过连接查询tableName对象
TableName tname = TableName.valueOf("ns1:calllogs");
//获得table
Table table = conn.getTable(tname);

    //主叫
    String callerId = "13845456767";
    //被叫
    String calleeId = "13989898787";

    SimpleDateFormat sdf = new SimpleDateFormat();
    sdf.applyPattern("yyyyMMddHHmmss");
    //通话时间
    String callTime = sdf.format(new Date());
    //通话时长
    int duration = 100 ;
    DecimalFormat dff = new DecimalFormat();
    dff.applyPattern("00000");
    String durStr = dff.format(duration);

    // hash 区域00 -- 99
    int hash = (calleeId + callTime.substring(0,6)).hashCode();
    hash = hash & Integer.MAX_VALUE % 100;

    DecimalFormat df = new DecimalFormat();
    df.applyPattern("00");
    String regNo = df.format(hash);


    // 拼接rowkey
    String rowkey = regNo +","+callerId+","+callTime+","+"0"+","+calleeId+","+durStr ;
    byte[] rowid = Bytes.toBytes(rowkey);
    //创建put对象
    Put put = new Put(rowid);
    put.addColumn(Bytes.toBytes("f1"), Bytes.toBytes("callerPos"),Bytes.toBytes("河北"));
    put.addColumn(Bytes.toBytes("f1"), Bytes.toBytes("calleePos"),Bytes.toBytes("河南"));
    //执行插入
    table.put(put);
    System.out.println("over");
}
0

1个回答

(一)Hbase协处理器的前世今生

Hbase是仿照Google的BigTable设计的,而其协处理器也是仿照BigTable的协处理实现完成的,具体链接可
参考:http://research.google.com/people/jeff/SOCC2010-keynote-slides.pdf

(二)什么是Hbase协处理器(Coprocessors )?

Hbase的协处理器在Hbase中属于高级的应用功能,它可以让开发者自定义的代码在服务器端执行,来完成特定的一些功能。

(三)为什么要用协处理器?

Hbase是一款高效的基于KV的NOSQL数据库,它有非常多的优点,但是也有不少缺点,hbase的设计全在rowkey上,所有能够高效的查询全是基于rowkey的,除了rowkey的设计之外,我们可能还有
一些其他的功能,如
(1)访问权限控制
(2)引用完整性,基于外键检验数据,
(3)给hbase设计二级索引,从而提高基于列过滤时的查询性能,
(4)像监控MySQL的binlog一样,监控hbase的wal预写log
(5)服务端自定义实现一些聚合函数的功能
(6).......
这样额外的功能,使用hbase的协处理来处理是非常方便的

(四)Hbase中协处理器的分类

在Hbase里面有两类Coprocessors :
1,基于Observer的Coprocessors ,类似于关系型数据库的触发器,可用来实现上面提到的功能中的1,2,3,4功能
常用的Observer:
RegionServerObserver 能够切面监测rowkey的数据的访问与删除
BaseMasterAndRegionObserver 能够切面监测hbase表的创建,删除,sheml修改
BaseWALObserver 能够切面监测hbase的wal的log写入

2,基于Endpoint的Coprocessors ,类似于关系型数据库的存储过程,可用来实现上面提到的功能中的5功能
在hbase0.96之后,采用probuff序列化通信的RPC数据,使用endpoint,需要同过protoc生成相关的service接口的java类
然后继承自己的生成的Service类并且实现hbase的Coprocessor, CoprocessorService接口,从而重写其中的业务方法构建一个
自定义的Endpoint的Coprocessors

协处理器的编程概念与Spring AOP的理念很相似,它也像MapReduce的数据运算方式,与本地local的数据产生计算,而不是远程读取数据再计算,
通过local计算的方式与RegionServer绑定,从而能提升数据计算的效率。

(5)协处理器的安装使用

Java代码

hbase.coprocessor.region.classes for RegionObservers and Endpoints.

hbase.coprocessor.wal.classes for WALObservers.

hbase.coprocessor.master.classes for MasterObservers.

在hbase官网文档中,介绍了两种使用方式:

静态方式(系统级),使用配置文件:

1,编写协处理器,并打成一个jar包,加入hbase/lib目录下,或者在hbase-env.sh里面配置相对应的jar,以及依赖的jar的路径
2,加入静态的配置,在hbase-site.xml里配置主类

Xml代码



hbase.coprocessor.region.classes

org.myname.hbase.coprocessor.endpoint.SumEndPoint

3,把依赖的jar分发到每一个regionserver上,然后重启hbase,
协处理生效,是系统级的协处理器

动态方式(表级别),使用Hbase shell:
1,编写协处理器,打成一个jar包,上传至HDFS,将依赖的jar拷贝到hbase的lib下,配置hbase-env.sh指定依赖jar的
2,建立表:

Java代码

create 'c', NAME=>'cf'

3,禁用表

Java代码

disable 'c'

4,指定协处理器的jar

Java代码

alter 'c', METHOD => 'table_att', 'coprocessor'=>'hdfs:///user/hbase_solr/hbase-increment-index.jar|com.hbase.easy.index.HbaseSolrIndexCoprocesser|1001|'

5,激活表

Java代码

enable 'c'

6,删除协处理jar
如果有多个协处理器,按照$1 $2 $n删除指定的jar配置

Java代码
alter 'c',METHOD => 'table_att_unset',NAME =>'coprocessor$1'

最后说一下,hbase的官方文档指出动态级别的协处理器,可以做到不重启hbase,更新协处理,做法就是
禁用表,卸载协处理器,重新指定协处理器, 激活表,即可,但实际测试发现
动态加载无效,是hbase的一个bug,看这个链接:

https://issues.apache.org/jira/browse/HBASE-8445

因为协处理器,已经被JVM加载,即使删除jar也不能重新load的jar,因为cache里面的hdfs的jar路径,没有变化,所以动态更新无效
,除非重启JVM,那样就意味着,需要重启RegionServer,
里面的小伙伴们指出了两种办法,使协处理器加载生效:
(1)滚动重启regionserver,避免停掉所有的节点
(2)改变协处理器的jar的类名字或者hdfs加载路径,以方便有新的ClassLoad去加载它

但总体来看,第2种方法,比较安全,第一种风险太大,一般情况下没有人会随便滚动重启线上的服务器的,这只在hbase升级的时候使用

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
HBase协处理器知识点
HBase协处理器知识点 1、为什么引入协处理器?      在旧版(0.92HBase版本之前)的HBase中是没有引入协处理器的概念的。这样存在的问题是:创建二级索引较难,很难进行简单的排序、求和、计数等操作。这里是指在该版本限制下难以进行上述操作,不是不行。为了降低难度,提出了协处理器的概念。  这里补充索引相关的知识点: 索引的概念: i)明确是针对数据库而言的,体现是一张表
Hbase之协处理器
官方介绍https://blogs.apache.org/hbase/entry/coprocessor_introduction 使用它一定要慎重,一旦协处理器出问题,则hbase将起不来,不过也有配置进行修复,修复配置见最后 协处理器简介       可理解为服务端的拦截器,可根据需求确定拦截点,再重写这些拦截点对应的方法  客户端的读取API配合筛选机制可控制返回的数据量  进一步优化...
HBase 协处理器 (一)
之前讨论了如何利用过滤器来降低从服务器端到客户端发送的数据量。利用 HBase 的协处理器特性,用户甚至可以将一部分计算移到数据所在的机器上。 3.1 协处理器简介 (Introduction to Coprocessors) 利用客户端 API, 配合特定的选择器机制,如果过滤器,或列族作用域,可以限制传输到客户端的数据。如果可以更进一步优化会更好,例如,数据的处理 直接放到服务器端执行,然...
hbase自定义协处理器实现
hbase自定义协处理器实现
hbase协处理器 动态表关联
协处理器—Coprocessor 1、 起源 Hbase 作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执 行求和、计数、排序等操作。比如,在旧版本的(&amp;lt;0.92)Hbase 中,统计数据表的总行数,需 要使用 Counter 方法,执行一次 MapReduce Job 才能得到。虽然 HBase 在数据存储层中集成 了 MapReduce,能够有效用于数据表的分布...
编写hbase协处理器observer遇到的问题
一、第一个异常信息,配置文件错误java.io.IOException: Aborting flush because server is aborted...        at org.apache.hadoop.hbase.regionserver.HRegion.internalPrepareFlushCache(HRegion.java:2269)        at org.apach...
HBase添加协处理器导致集群异常解决方式
在做HBase二级索引实验时,使用了HBase的协处理器,在插入数据的时候,由于协处理器抛出了异常,导致HRegionServer挂了,重启之后,使用jps查看,马上又消失了,查询HMaster和HRegionServer的日志如下:java.lang.RuntimeException: HRegionServer Aborted at org.apache.hadoop.hbas...
Hbase的协处理器
1.起因(Why HBase  Coprocessor) HBase作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的(统计数据表的总行数,需要使用Counter方法,执行一次MapReduce Job才能得到。虽然HBase在数据存储层中集成了MapReduce,能够有效用于数据表的分布式计算。然而在很多情况下,做一些简单
hbase协处理器引发的问题解决方案
因协处理器涉及不当导致regionserver停工,没法启动,可以先在配置文件hbase-site.xml文件中将hbase.coprocessor.abortonerror设为false。让hbase继续启动,但此事你无法见协处理器卸载,若要将其卸载,需创建backup-master,创建方法为,新建配置文件:backupmasters,在此文件中键入backup -master的hostname
Hbase用协处理器建二级索引
1.起因(Why HBase Coprocessor) HBase作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的( 2.灵感来源( Source of Inspration) HBase协处理器的灵感来自于Jeff Dean 09年的演讲( P66-67)。它根据该演讲实现了类似于bigtable的协处理器,包括以下
HBase性能优化2—使用Coprocessor进行RowCount统计
http://www.binospace.com/index.php/make-your-hbase-better-2/ 关键词:AggregationClient   对于Table内RowKey个数的统计,一直是HBase系统面临的一项重要工作,目前有两种执行该操作的方式。 1)使用MapReduce进行。可以借助HTableInputFormat实现对于Rowkey的划分,但是需要...
利用协处理器endpoint实现批量删除功能
最近因为工作需要,用到了hbase的协处理器endpoint,遇到了一些坑。以批量删除功能为例记录一些endpoint的使用方法。至于hbase只是以及协处理器coprocessor的知识在此不做过多介绍。 1.安装protocbuf解释器安装 下载protobuf-2.5.0.tar.gz文件 选定一个目录,比如Downloads目录下,解压下载的源文件 tar -zxvf pro
一次对HBase协处理器的内存耗尽问题的GC分析和解决
基于HBase协处理器,将数据建立索引到Elasticsearch,出现的process jvm内存耗尽问题
HBase利用observer(协处理器)创建二级索引
一、协处理器—Coprocessor (概念拷贝) 1、 起源 Hbase 作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的(&amp;lt;0.92)Hbase 中,统计数据表的总行数,需要使用 Counter 方法,执行一次 MapReduce Job 才能得到。虽然 HBase 在数据存储层中集成 了 MapRed...
HBase学习之三: hbase filter(过滤器)和coprocessor(协处理器)统计行数的简单应用
1.关于filter的用法及说明参见这三篇博文,基本涵盖了绝大部分filter,很详细,还有实测代码,感谢博主的付出,特收藏. HBase Filter:http://blog.sina.com.cn/s/blog_7431c7c50101c5ig.html HBase(0.96以上版本)过滤器Filter详解及实例代码:http://blog.csdn.net/u010967382/arti
【HBase】17-协处理器
1、协处理器简介 使用客户端API,配合筛选机制,例如,使用过滤器或限制列族的范围,都可以控制被返回到客户端的数据量。如果可以更进一步优化会更好,例如,数据的处理流程直接放到服务器端执行,然后仅返回一个小的处理结果集。这类似于一个小型的MapReduce框架,该框架将工作分发到整个集群。 协处理器允许用户在 region服务器上运行自己的代码,更准确地说是允许用户执行region级的操作,并且可...
HBase添加协处理器并且使其生效
1.在hbase-site.xml中添加如下配置信息使协处理器生效   &amp;lt;property&amp;gt;  &amp;lt;name&amp;gt;hbase.coprocessor.region.classes&amp;lt;/name&amp;gt;  &amp;lt;value&amp;gt;hbase.CalleeWriteObserver&amp;lt;/value&amp;gt; &amp;lt;/property&amp;gt; 以上的类名换成自...
HBase协处理器实战
HBase协处理器实战 1.概念 HBase的coprocessor分为两类,Observer和EndPoint。Observer相当于触发器,代码部署在服务端,相当于对API调用的代理。HBase中的协处理器可以被理解为Mysql中的触发器或者是存储过程。 2.实战 step 1.编写Java程序 这里使用RegionObserver作为示例,简单介绍RegionServer的...
HBase 协处理器 (二)
继  HBase 协处理器 (一)   3.7 The RegionObserver Class 用于 region level, 注意,这个类的所有调用方法的第一个参数为 ObserverContext&amp;lt;RegionCoprocessorEnvironment&amp;gt; ctx8, 提供访问 context 实例。 操作可以被划分为两组: region 生命周期变化和客户端 API...
HBase优化策略及协处理器
服务端优化 什么导致HBase性能下降 Jvm内存分配与GC回收策略 HBase运行机制相关的配置分配不合理 表结构设计及用户使用方式不合理 HBase数据存储过程 HBase写入时当memstore达到一定大小会flush到磁盘保存成HFile,当HFile小文件太多回执行compact操作进行合并(compact就是将很多小文件合并成一个大文件的过程。compact分为minor c...
HBase过滤器,计数器和协处理器
过滤器 HBase过滤器(filter)提供了非常强大的特性来帮助用户提高其处理表中数据的效率。用户不仅可以使用HBase中预定义好的过滤器,而且可以实现自定义的过滤器。 HBase中两种主要的数据读取函数是get()和scan(),它们都支持直接访问数据和通过指定的起始行健访问数据的功能。也可以添加额外的限制条件(比如列族、列、时间戳和版本号)来过滤数据。同时用户还可以通过继承Filter类...
【HBase】1009-HBase的协处理器(coprocessor)统计行数
HBase的协处理器介绍
HBase协处理器加载过程(1.2)
之前写过HBase协处理器的一些原理和使用,基本上都是官方文档和官方的博客翻过来的,知道了怎么写,怎么用。 现在需要思考的一个问题是,自己写的协处理器是怎么加载成功并调用的。 一、首先来看ObserverCoprocessor: 1.观察者协处理器的静态加载的配置是在hbase-site.xml中配置如下属性: 通过hbase.coprocessor.region.clas
Hbase的协处理器(Coprocessor的两种实现observer 和 endpoint,加载卸载方式,二级索引)
1、协处理器—Coprocessor 1、 起源 HBase 作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的(&amp;amp;lt;0.92) HBase 中,统计数据表的总行数,需要使用 Counter 方法,执行一次 MapReduce Job 才能得到。 虽然 HBase 在数据存储层中集成了 MapReduce,能够有效用于数据表的分布...
hbase2.0利用协处理器(coprocessor)统计行数
一、启动协处理器 在hbase集群环境中,在hbase-site.xml配置文件中添加属性信息如下: &amp;lt;property&amp;gt; &amp;lt;name&amp;gt;hbase.coprocessor.user.region.classes&amp;lt;/name&amp;gt; &amp;lt;value&amp;gt;org.apache.hadoop.hbase.coprocessor.AggregateIm...
Hbase使用协处理器处理数据。
hbase协处理器总结 1,编写协处理器类CalleeWriteObserver,继承BaseRegionObserver重写需要的方法。这里重写postPut方法。 2,在创建表的前面对表描述器添加些处理器类名addCoprocessor("className"). 3,在hbase-site.xml配置文件中添加 <!--指定协处理器的类--> <
Hbase协处理器配置后无法使用Hbase
在Hbase中添加了协处理器之后 hbase就无法使用了 也不知道是什么情况 网上也查了很多没有结果 有没有大佬帮忙解决一下 这是我的配置,jar包也放到lib目录下了 也全都已经分发 然后启动zk,hadoop,和hbase 出现了如下情况 在Hbase的ui界面没有table的信息 在hbase shell 里查不了任何信息 以下是日志信息 ...
Hbase 协处理器
在分析协处理器 Coprocessor 之前, 我们先来总结下客户端发起 RPC 请求, 最终到 HRegion 的过程 在客户端操作表中的数据时,会先找到改行的HRegionLocation,然后练习HRegionServer,通过RPC 调用HRegion上的方法,因为HRegion 才是真正存储数据的地方。 如果客户端代码想要在 HRegion 执行 CRUD 操作前后植入自定义的逻...
使用协处理器将HBase数据索引到Elasticsearch集群
HBaseCon 2013: Using Coprocessors to Index Columns in an Elasticsearch Cluster 使用协处理器将列数据索引到Elasticsearch集群     总结来说,一般就是扩展RegionObserver类,覆写pre-和post-方法,将jar包路径配置到表中,让hbase去回调覆写的方法。     这种协处
hbase的协处理器
一、产生背景 Hbase作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的(&lt;0.92)Hbase 中,统计数据表的总行数,需要使用 Counter 方法,执行一次 MapReduce Job 才能得到。虽然 HBase在数据存储层中集成了 MapReduce,能够有效用于数据表的分布式计算。然而在很多情况下,做一些简单的相加...
HBase - Coprocessor - 协处理器之观察者Observer(触发器)的介绍以及使用 | 那伊抹微笑
public class TestAddColumnBaseRegionObserver extends BaseRegionObserver{ @Override public void prePut(ObserverContext e, Put put, WALEdit edit, Durability durability) throws IOException { putUUI
HBase 协处理器实践(一)AggregationClient
HBase 协处理器实践(一)          对数据表中的数据进行求和。        1、添加coprocessor AggregateImplementation分为添加全局和为单表添加Aggregation。          a、 添加全局AggregateImplementation,方法:修改hbase-site.xml文件,在该文件中添加 hbase.copr
Hbase2.x协处理器的使用
简介 HBASE的协处理器分为endpoint和observer,网上介绍很多,这里不再赘述,直接上代码。 创建Maven工程 &lt;project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://...
kylin加载hbas的协处理器(坑)
版本: CDH: 5.13 Kylin: 2.5.2 在project、model、cube构建完成后,开始查询,结果因为之前做了Hadoop的HA,所以需要更新HBase的协处理器。 这个是执行查询的时候报的错: org.apache.hadoop.hbase.exceptions.UnknownProtocolException: org.apache.hadoop.hbase.exce...
HBase建表高级属性,hbase应用案例看行键设计,HBase和mapreduce结合,从Hbase中读取数据、分析,写入hdfs,从hdfs中读取数据写入Hbase,协处理器和二级索引
1. Hbase高级应用1.1建表高级属性下面几个shell 命令在hbase操作中可以起到很到的作用,且主要体现在建表的过程中,看下面几个create 属性1、 BLOOMFILTER 默认是NONE 是否使用布隆过虑及使用何种方式 布隆过滤可以每列族单独启用。 使用 HColumnDescriptor.setBloomFilterType(NONE | ROW | ROWCOL) 对列族
HBase Coprocessor 剖析与编程实践
1.起因(Why HBase  Coprocessor) HBase作为列族数据库最经常被人诟病的特性包括:无法轻易建立“二级索引”,难以执行求和、计数、排序等操作。比如,在旧版本的( 2.灵感来源( Source of Inspration) HBase协处理器的灵感来自于Jeff Dean 09年的演讲( P66-67)。它根据该演讲实现了类似于bigtable的协处理器,包括以下特性:
hbase协处理器coprocessor 统计行数量 案例
用来统计行数,但是感觉并不是很好用, 数据量大了以后比较卡,也许是我的电脑不给力吧 import java.io.IOException; import java.text.DecimalFormat; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.Date; im
使用Hbase协作器(Coprocessor)同步数据到ElasticSearch(hbase 版本 1.2.0-cdh5.8.0, es 2.4.0 版本)
使用Hbase协作器(Coprocessor)同步数据到ElasticSearch(hbase 版本 1.2.0-cdh5.8.0, es 2.4.0 版本)源代码
导致Hbase挂掉的场景
 异常导致的退出会通过接口Abortable定义的abort()方法实现,Abortable实现类如下: 由以上类图可以看出HBaseAdmin的abort由于是client的访问,因此终止服务只需抛出异常即可,HConnection也是用于client,因此只需关闭连接,如果是zk的异常会在后续的使用中重新连接zk而不用关闭连接,其中重点的是HMaster、HRegionServer和Zoo...
HBase自定义协处理器测试
本课程从基础的环境搭建到更深入的知识学习都会有一个比较好的讲解。帮助学员上手hadoop生态圈的大数据处理框架的使用,使用hadoop生态圈进行一些模块化、项目功能化的开发,主要包括安装部署hadoop、hive、hbase、hue、oozie、flume等生态圈相关软件环境的搭建,并且在已搭建好的环境上进行相关知识点的讲解和功能的开发。