`
flyingdutchman
  • 浏览: 353365 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

RabbitMQ集群类型一:在单节点上构建built-in内置集群

阅读更多
        在本章中我们来学习配置rabbitmq集群类型之一的built-in内置集群。
       
        metadata元数据
        在一个单节点的rabbitmq server中,queue metadata队列元数据、exchange metadata交换机元数据、binding metadata绑定元数据和vhost metadata虚拟主机元数据都全部保存在服务器的内存当中;在built-in内置rabbitmq server集群中,这四种元数据会被保存在每一个节点服务器内存中。
       
        rabbitmq节点类型:RAM内存节点和Disk磁盘节点
        单节点的rabbitmq只能是Disk磁盘类型的服务器节点。
        在内置的rabbitmq服务器集群中,服务器节点分为RAM内存节点和Disk磁盘节点。RAM内存节点的rabbitmq server会将元数据信息保存在服务器内存中,而Disk磁盘节点的rabbitmq server会会将元数据信息刷新到磁盘上,RAM节点的性能好高于Disk节点的rabbitmq server的性能。

        队列中的数据
        在内置的rabbitmq服务器集群的队列中的消息并不会被“广播”到每个服务器节点的队列中,这也就是说如果用户将消息发布到了rabbitmq server1节点的Q1队列中,后来又向集群中添加了一个节点rabbitmq server3,rabbitmq server3会copy四种类型的metadata元数据,但是却不会copy已有队列中的消息,如果rabbitmq server1重启,那么rabbitmq server1中所有队列中的消息在再次其中之前——如果其中的所有的exchange、queue和消息都是持久化的——都会“丢失”,但是这个时候可以向其他节点发布消息。

        在实际的生产环境中,对于内置rabbitmq集权来所,通常会在集群中配置一到2个Disk磁盘类型的rabbitmq节点。在这样的集群中,元数据信息的每一次变化,RAM节点的rabbitmq都会将修改保存到内存,而Disk磁盘类型的rabbitmq节点都会将修改保存到磁盘。如果集群中的Disk磁盘服务器节点宕机——整个集群中只有一个Disk磁盘服务节点的话,那整个集群都不能做以下操作:
        1、创建queue队列;
        2、创建exchange交换机;
        3、创建binding;
        4、添加用户;
        5、修改用户权限;
        6、添加或删除节点。
        有了以上缺点,那为什么还要在集群中特别设置一些Disk磁盘服务器节点呢?这是因为,要想集群重启后元数据可以恢复,就需要把集群元数据持久化到磁盘,这也是为什么建议在rabbitmq的内置集群中为什么要设置1 ~2个Disk磁盘服务器节点的原因。RAM节点重启后只有链接到Disk节点获取元数据信息才能重新配置自己的节点。

        首先我们先按照在CentOS上安装rabbitmq-server来重新安装2个rabbitmq server服务器:
引用

        # cd rabbitmq-server-3.1.1
        # make
        # make install TARGET_DIR=/opt/mq/rabbitmq2 SBIN_DIR=/opt/mq/rabbitmq2/sbin MAN_DIR=/opt/mq/rabbitmq2/man //将rabbitmq编译到/opt/mq/rabbitmq2目录

        # make install TARGET_DIR=/opt/mq/rabbitmq3 SBIN_DIR=/opt/mq/rabbitmq3/sbin MAN_DIR=/opt/mq/rabbitmq3/man //将rabbitmq编译到/opt/mq/rabbitmq3目录

       


        下面我们来开始在一台CentOS上配置rabbitmq内置集群的过程:
引用

        //节点1 rabbit@JackyChen
        # cd /opt/mq/rabbitmq/sbin
        # RABBITMQ_NODE_PORT=5672 RABBITMQ_NODENAME=rabbit ./rabbitmq-server --detached

        //节点2 rabbit2@JackyChen
        # cd /opt/mq/rabbitmq2/sbin
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674  RABBITMQ_MNESIA_DIR=/opt/mq/rabbitmq2/rabbit2-mnesia RABBITMQ_PLUGINS_EXPAND_DIR=/opt/mq/rabbitmq2/rabbit2-plugins-scratch RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15673}]" RABBITMQ_LOG_BASE=/opt/mq/rabbitmq2/logs /opt/mq/rabbitmq2/sbin/rabbitmq-server --detached

        //节点3 rabbit3@JackyChen
        # cd /opt/mq/rabbitmq3/sbin
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676  RABBITMQ_MNESIA_DIR=/opt/mq/rabbitmq3/rabbit3-mnesia RABBITMQ_PLUGINS_EXPAND_DIR=/opt/mq/rabbitmq3/rabbit3-plugins-scratch RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15674}]" RABBITMQ_LOG_BASE=/opt/mq/rabbitmq3/logs /opt/mq/rabbitmq3/sbin/rabbitmq-server --detached

        //创建集群节点rabbit2@JackyChen
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674 ./rabbitmqctl stop_app
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674 ./rabbitmqctl reset
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674 ./rabbitmqctl join_cluster rabbit@JackyChen //将rabbit@JackyChen和rabbit2@JackyChen设置为Disk节点
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674 ./rabbitmqctl start_app
        # RABBITMQ_NODENAME=rabbit2 RABBITMQ_NODE_PORT=5674 ./rabbitmqctl cluster_status

        //创建集群节点rabbit3@JackyChen
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl stop_app
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl reset
        //将rabbit@JackyChen和rabbit3@JackyChen设置为Disk节点
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl join_cluster rabbit@JackyChen
        //rabbit3@JackyChen设置为RAM节点
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl change_cluster_node_type ram
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl start_app
        # RABBITMQ_NODENAME=rabbit3 RABBITMQ_NODE_PORT=5676 ./rabbitmqctl cluster_status

        # ./rabbitmqctl cluster_status
       

        节点信息显示如下:



        注意:如果实在不同的服务器上配置rabbitmq节点,那么就需要在rabbitmq服务器共享一个.erlang.cookie,文件在/var/lib/rabbitmq目录下。


        在物理服务器重启后,只要重新启动这几个rabbitmq后,集群就又自动建立起来了,很方便吧?!

       
  • 大小: 155.9 KB
  • 大小: 135.9 KB
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics