`
lc_koven
  • 浏览: 350241 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

使用zookeeper管理多个hbase集群

阅读更多
    zookeeper是hbase集群的"协调器"。由于zookeeper的轻量级特性,因此我们可以将多个hbase集群共用一个zookeeper集群,以节约大量的服务器。多个hbase集群共用zookeeper集群的方法是使用同一组ip,修改不同hbase集群的"zookeeper.znode.parent"属性,让它们使用不同的根目录。比如cluster1使用/hbase-c1,cluster2使用/hbase-c2,等等。
 
    使用以上方法有一个现实的问题:如何避免各集群的相互干扰?因为client的配置权是在用户手上,并不能保证用户永远是配置正确的,那么会产生某个用户访问了不该他访问的hbase集群。此时数据安全性成了很大的问题,甚至可能出现误删除数据。我们需要在zookeeper层屏弊掉该问题。
 
    zookeeper3.x版本起自带了简单的ACL功能(注意3.3.x版本起不再支持按hostname来分配权限)。见:http://zookeeper.apache.org/doc/r3.3.2/zookeeperProgrammers.html#sc_ZooKeeperAccessControl。进行权限配置主要使用digest和ip两种方法。其中digest是用户密码方式,对用户来说使用上并不透明。ip配置最简单,对用户也是透明的,用户并不知道的情况下就能限制它的访问权限。
 
    zookeeper将访问权限分为了五类:READ/WRITE/DELETE/CREATE/ADMIN,其中admin为最高权限。zookeeper的权限是到znode级别的,限制了某一个node的权限并不能限制它的子节点权限。

    不过使用IP做权限配置方案有一个缺陷:必须指定具体的ip,而不能使用通配符或者范围一类的。这样对于大规模的权限设置是非常不方便的一件事,因此作者略调整了一下zookeeper的代码:
  IPAuthenticationProvider.java
 
/**
 * Licensed to the Apache Software Foundation (ASF) under one
 * or more contributor license agreements.  See the NOTICE file
 * distributed with this work for additional information
 * regarding copyright ownership.  The ASF licenses this file
 * to you under the Apache License, Version 2.0 (the
 * "License"); you may not use this file except in compliance
 * with the License.  You may obtain a copy of the License at
 *
 *     http://www.apache.org/licenses/LICENSE-2.0
 *
 * Unless required by applicable law or agreed to in writing, software
 * distributed under the License is distributed on an "AS IS" BASIS,
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
 * See the License for the specific language governing permissions and
 * limitations under the License.
 */

package org.apache.zookeeper.server.auth;

import org.apache.zookeeper.data.Id;
import org.apache.zookeeper.server.ServerCnxn;
import org.apache.zookeeper.KeeperException;

public class IPAuthenticationProvider implements AuthenticationProvider {

    public String getScheme() {
        return "ip";
    }

    public KeeperException.Code
        handleAuthentication(ServerCnxn cnxn, byte[] authData)
    {
        String id = cnxn.getRemoteAddress().getAddress().getHostAddress();
        cnxn.getAuthInfo().add(new Id(getScheme(), id));
        return KeeperException.Code.OK;
    }

    // This is a bit weird but we need to return the address and the number of
    // bytes (to distinguish between IPv4 and IPv6
    private byte[] addr2Bytes(String addr) {
        byte b[] = v4addr2Bytes1(addr);
        // TODO Write the v6addr2Bytes
        return b;
    }

    private byte v4addr2Bytes(String part) throws NumberFormatException{
        try {
           int v = Integer.parseInt(part);
           if (v >= 0 && v <= 255) {
                  byte  b = (byte) v;
                  return b;
                } else {
                    throw new NumberFormatException("v < 0 or v > 255!");
                }
            } catch (NumberFormatException e) {
                throw e;
            }
    }
    
    private byte[] v4addr2Bytes1(String addr) {
      String parts[] = addr.split("\\.", -1);
      if (parts.length != 4) {
          return null;
      }
      byte b[] = new byte[4];
      for (int i = 0; i < 4; i++) {
      	try {
      		if(parts[i].split("/").length == 2){
      			v4addr2Bytes(parts[i].split("/")[0]);
      			v4addr2Bytes(parts[i].split("/")[1]);
      			continue;
      		}else{
            b[i] = v4addr2Bytes(parts[i]);
      		}
      	} catch (NumberFormatException e) {
          return null;
  			}
      }
      return b;
  }
    
    public boolean matches(String id, String aclExpr) {
      String parts[] = aclExpr.split("/", 2);
      byte aclAddr[] = addr2Bytes(parts[0]);
      if (aclAddr == null) {
          return false;
      }
      byte endAclAddr[] = new byte[aclAddr.length];
      for(int i = 0; i < aclAddr.length; i ++){
      	endAclAddr[i] = aclAddr[i];
      }
      if (parts.length == 2) {
          try {
          		int end = Integer.parseInt(parts[1]);
          		int e = endAclAddr[endAclAddr.length-1]<=0?endAclAddr[endAclAddr.length-1]+256:endAclAddr[endAclAddr.length-1];
          		if(end <  e|| end < 0 || end > 255)
          			return false;
              endAclAddr[endAclAddr.length-1] = (byte)end;
          } catch (NumberFormatException e) {
              return false;
          }
      }
      byte remoteAddr[] = addr2Bytes(id);
      if (remoteAddr == null) {
          return false;
      }
      for (int i = 0; i < remoteAddr.length; i++) {
      	int r = remoteAddr[i]<=0?(int)remoteAddr[i]+256:remoteAddr[i];
      	int a = aclAddr[i]<=0?(int)aclAddr[i]+256:aclAddr[i];
      	int e = endAclAddr[i]<=0?(int)endAclAddr[i]+256:endAclAddr[i];
        if (r < a || r > e) {
          return false;
        }
      }
      return true;
  }

    public boolean isAuthenticated() {
        return false;
    }

    public boolean isValid(String id) {
        return addr2Bytes(id) != null;
    }
}

    支持了使用/做为范围标识,比如进入hbase zkcli,执行:setAcl /test ip:192.168.0.3/10:cd,则将读写权限赋给了192.168.0.3-192.168.0.10这8台机器,其它机器将没有任何权限。
    这样用同一个zookeeper管理多个集群、海量机器将不再有困扰。
    最后写了一个帮助运维同学自动化管理zookeeper集群下多个hbase集群的ACL权限的工具,像以下这样:
java -Djava.ext.dirs=libs/ -cp hbase-tools.jar dwbasis.hbase.tools.client.ZookeeperAcl aclFile.json
Usage: ZookeeperAcl acljsonfile [-plan]
/test/t ==> 'ip,'192.168.0.1
:cdrwa
/test ==> 'ip,'192.168.0.1/3
:cdrwa
/test ==> 'ip,'192.168.0.5
:cdrwa
do you really setAcl as above?(y/n)


    补充:多集群共用zk后,每个集群的启动和停止不应该影响zk的稳定。因此请配置hbase-env.sh中export HBASE_MANAGES_ZK=false
0
4
分享到:
评论
4 楼 杨俊华 2011-08-18  
杨俊华 写道
Zookeeper需要写WAL log, IO的load是比较重的。而一个40-50台的集群里面有3个Zookeeper就足够了,为什么还要多个cluster公用一个Zookeeper? zookeeper 所占用的机器不算多呀?

事实上我们团队目前测试环境有6个集群,生产环境有4个集群。如果各用3台机器,这就要30台机器,而且load都接近0,并且运维成本高。合在一起用个五节点的集群,就会比较节省了,运维也方便。更重要的是zk3.1.x版本以后多机房容灾也成了可能,可以两个机房分别布署3/2台机器[
lc_koven 写道
杨俊华 写道
Zookeeper需要写WAL log, IO的load是比较重的。而一个40-50台的集群里面有3个Zookeeper就足够了,为什么还要多个cluster公用一个Zookeeper? zookeeper 所占用的机器不算多呀?

事实上我们团队目前测试环境有6个集群,生产环境有4个集群。如果各用3台机器,这就要30台机器,而且load都接近0,并且运维成本高。合在一起用个五节点的集群,就会比较节省了,运维也方便。更重要的是zk3.1.x版本以后多机房容灾也成了可能,可以两个机房分别布署3/2台机器

/quote]

由于 Zookeeper Cluster保证Hbase的可靠性,如果Zookeeper出现故障,整个cluster就将不work,会出现Regionserver退出,读写异常等后果。如果你们4个生产环境配置一套Zookeeper,那么这套Zookeeper的问题会直接影响到4个环境。

3 楼 lc_koven 2011-08-17  
杨俊华 写道
Zookeeper需要写WAL log, IO的load是比较重的。而一个40-50台的集群里面有3个Zookeeper就足够了,为什么还要多个cluster公用一个Zookeeper? zookeeper 所占用的机器不算多呀?

事实上我们团队目前测试环境有6个集群,生产环境有4个集群。如果各用3台机器,这就要30台机器,而且load都接近0,并且运维成本高。合在一起用个五节点的集群,就会比较节省了,运维也方便。更重要的是zk3.1.x版本以后多机房容灾也成了可能,可以两个机房分别布署3/2台机器
2 楼 lc_koven 2011-08-17  
杨俊华 写道
Zookeeper需要写WAL log, IO的load是比较重的。而一个40-50台的集群里面有3个Zookeeper就足够了,为什么还要多个cluster公用一个Zookeeper? zookeeper 所占用的机器不算多呀?

zookeeper写wal log?没有啊。zookeeper集群的访问量实际中非常少。zookeeper的作用仅是监视机器状态、存储root-region-server
1 楼 杨俊华 2011-08-17  
Zookeeper需要写WAL log, IO的load是比较重的。而一个40-50台的集群里面有3个Zookeeper就足够了,为什么还要多个cluster公用一个Zookeeper? zookeeper 所占用的机器不算多呀?

相关推荐

    大数据综合实验环境搭建(3个集群、Zookeeper、Hive、HBase)

    大数据综合实验环境搭建(3个集群、Zookeeper、Hive、HBase)

    搭建zookeeper和hbase相关教程以及对应的jar包和脚本文件

    在之前我们都已经将hadoop集群(三个节点)构建好了,接下来我们来安装一下zookeeper-3.5.7 + hbase-2.0.5。相信在有了之前那么多次经验,这次的安装肯定也不会难到大家。详细的zookeeper和hbase的详细教程,以及含有...

    hbase的安装与简单操作.doc

    ZooKeeper用于管理HBase集群的元数据。 安装HBase: 下载并解压HBase安装包到所有节点。 配置HBase的环境变量,包括HBASE_HOME和PATH。 编辑HBase的配置文件(如hbase-site.xml),设置相关的参数,如ZooKeeper的...

    大数据运维技术第7章 HBase组件安装与配置课件.pptx

    很多服务器上面跑的进程是HRegionServer,HMaster没有单点问题,HBase集群当中可以启动多个HMaster,但是通过ZooKeeper的事件处理机制保证整个集群当中只有一个HMaster在运行。既然HBase是数据库,那么数据库从根本...

    Zookeeper熟悉和用途综述

    Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,主要是用来解决分布式应用中经常遇到的一些数据管理问题, 如:集群管理、统一命名服务、分布式配置管理、分布式消息队列、分布式锁、分布式通知协调等。 ...

    Zookeeper单机部署和集群部署文档.pdf

    ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。 本文档为单机部署和集群部署,带详细目录。

    HBase的安装与配置

    4、配置hbase集群,要修改3个文件(首先zk集群已经安装好了) 5、修改hbase-env.sh export JAVA_HOME=/usr/java/jdk1.7.0_xxx (1)、告诉hbase使用外部的zk export HBASE_MANAGES_ZK=false 6、修改vim ...

    java大数据内容_3HBase

    HBASE是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBASE技术可在廉价PC Server上搭建起大规模结构化存储集群 HBASE的目标是存储并处理大型的数据,更具体来说是仅需使用普通的硬件配置,就能够...

    分布式协调工具-ZooKeeper实现动态负载均衡

    ZooKeeper本身可以以单机模式安装运行,不过它的长处在于通过分布式ZooKeeper集群(一个Leader,多个Follower),基于一定的策略来保证ZooKeeper集群的稳定性和可用性,从而实现分布式应用的可靠性。 1、Zookeeper...

    Ambari部署Hadoop集群.doc

    Hadoop生态圈包含HDFS、MapReduce、HBase、Hive、Pig、Flume、Sqoop、ZooKeeper等诸多组件。对大数据的初学者来说,搭建一个Hadoop大数据基础平台不是一件容易的事;对于企业,如果要部署由成千上万的节点组成的...

    Zookeeper的应用场景.pdf

    在越来越多的分布式系统(Hadoop、HBase、Kafka)中,Zookeeper都作为核心组件使用。 Zookeeper的应用场景主要有以下几种 1.数据发布/订阅 2.负载均衡 3.命名服务 4.分布式协调/通知 5.集群管理 6.Master选举 7....

    hadoop-HA搭建+hbase.docx

    初学Hadoop时试验搭建很多次的集群部署方案,步骤很详细。hadoop-2.6.5.tar.gz zookeeper-3.4.10.tar.gz Hbase1.2.6 ,两个nameNode+三dataNode

    新零售大数据平台-运维监控平台的开发

    在这个项目中,您将基于开源的 Hue 平台(Hadoop User Experience)进行二次开发,通过修改和扩展其源代码,使其能够支持管理和监控更多的大数据组件。具体来说,您需要为以下组件添加监控和管理功能: 1. Hadoop: 作为...

    Hadoop各组件详解(Hbase篇 持续更新版)

    1)HBASE译为“Hadoop Database”,是一个高可靠性、高性能、列存储、可伸缩、实时读写的NoSQL数据库系统,利用HBASE技术可在廉价PC Server上搭建起大规模结构化存储集群 2)主要用来存储结构化和半结构化的松散数据...

    Hadoop权威指南 第二版(中文版)

     合并多个源文件  可变的扩展  配置开发环境  配置管理  辅助类GenericOptionsParser,Tool和ToolRunner  编写单元测试  mapper  reducer  本地运行测试数据  在本地作业运行器上运行作业  测试驱动程序 ...

    新版Hadoop视频教程 段海涛老师Hadoop八天完全攻克Hadoop视频教程 Hadoop开发

    10-多个job在同一个main方法中提交.avi 第五天 hadoop2.x中HA机制的原理和全分布式集群安装部署及维护 01-zookeeper.avi 02-zookeeper2.avi 03-NN高可用方案的要点1.avi 04-hadoop-HA机制的配置文件.avi 05-...

    大数据学习计划.pdf

    ⼤数据学习计划 ⼤数据学习计划 ⼤数据如此⽕热的现在,想必许多⼩伙伴都想要加⼊这个⾏业。也是我们今天就要拿出收藏已久的⼤数据学习计划。...欢 迎进阶中和进想深⼊⼤数据的⼩伙伴 2 理解 zookeeper 在 HBase集群

    Hadoop实战(陆嘉恒)译

    细则手册7.1 向任务传递作业定制的参数7.2 探查任务特定信息7.3 划分为多个输出文件7.4 以数据库作为输入输出7.5 保持输出的顺序7.6 小结第8 章 管理Hadoop8.1 为实际应用设置特定参数值8.2 系统体检8.3 权限设置8.4...

    Hadoop权威指南(中文版)2015上传.rar

    合并多个源文件 可变的扩展 配置开发环境 配置管理 辅助类GenericOptionsParser,Tool和ToolRunner 编写单元测试 mapper reducer 本地运行测试数据 在本地作业运行器上运行作业 测试驱动程序 在集群上运行 打包 启动...

    Hadoop实战

    第4-7章深入地讲解了mapreduce计算模型、mapreduce应用的开发方法、mapreduce的工作机制,同时还列出了多个mapreduce的应用案例,涉及单词计数、数据去重、排序、单表关联和多表关联等内容;第8-11章全面地阐述了...

Global site tag (gtag.js) - Google Analytics