Linux源码安装RabbitMQ高可用集群

客户端通过虚拟ip(192.168.0.45)进行访问haproxy,通过keepalived会将其发放到MASTER节点上的haproxy,若MASTER节点上的Haproxy宕机,则会发放到SLAVE节点上,通过Haproxy会访问到RabbitMQ集群,通过集群访问各个RabbitMQ

1.环境说明

  • linux版本:CentOS Linux release 7.9.2009
  • erlang版本:erlang-24.0
  • rabbitmq版本:rabbitmq_server-3.9.13

2.源码安装erlang、RabbitMQ

  Rabbitmq采用erlang语言开发,所以在安装rabbitmq之前,需要安装erlang。

2.1 下载erlang、RabbitMQ源码包

erlang官网下载地址:http://www.erlang.org/download 选择opt_src_版本号.tar.gz(这里我选择的是 otp_src_24.0.tar.gz)

或者在linux服务器上使用 wget http://www.erlang.org/download/otp_src_24.0.tar.gz 进行下载

官网下载erlang源码包截图

 RabbitMq官网下载地址:https://www.rabbitmq.com/download.html

RabbitMQ下载截图

RabbitMQ源码包

2.2 安装erlang

  1. 安装相关依赖 

yum -y install make gcc gcc-c++ kernel-devel m4 ncurses-devel openssl-devel gtk2-devel binutils-devel unixODBC unixODBC-devel xz

2. 上传并解压erlang安装包

#上传otp_src_24.0.tar.gz rabbitmq-server-generic-unix-3.9.13.tar.xz 到指定路径(这里我上传到/lee)
#解压安装包
[root@lee lee]# tar -zxvf otp_src_24.0.tar.gz
[root@lee lee]# ll
total 111200
drwxr-xr-x 12 2004 wheel 4096 May 12 2021 otp_src_24.0
-rw-r–r– 1 root root 101193664 Mar 21 09:45 otp_src_24.0.tar.gz
-rw-r–r– 1 root root 12660820 Mar 21 09:45 rabbitmq-server-generic-unix-3.9.13.tar.xz

3. 编译安装erlang

#创建erlang安装目录
[root@lee lee]# mkdir -p /lee/erlang
#进入otp_src_24.0目录
[root@lee lee]# cd otp_src_24.0
[root@lee otp_src_24.0]# ./configure prefix=/lee/erlang
[root@lee otp_src_24.0]# make && make install
#安装完成后安装路径下的目录如下
[root@lee otp_src_24.0]# cd ../erlang/
[root@lee erlang]# ll
total 8
drwxr-xr-x 2 root root 4096 Mar 21 11:03 bin
drwxr-xr-x 3 root root 4096 Mar 21 11:02 lib

在执行 ./configure prefix=/lee/erlang 时出现如下问题可不用处理,这样编译完成

4. 配置环境变量并验证erlang是否安装成功

# 将erlang安装路径/bin 添加到 /ect/profile 末尾
[root@lee erlang]# vi /etc/profile
[root@lee erlang]# source /etc/profile

验证是否安装成功,执行erl 结果如下表示正常

[root@lee erlang]# erl
Erlang/OTP 24 [erts-12.0] [source] [64-bit] [smp:2:2] [ds:2:2:10] [async-threads:1]

Eshell V12.0 (abort with ^G)
1>

执行 halt(). 退出控制台

1> halt().
[root@lee erlang]#

 2.3. 安装RabbitMQ

安装RabbitMQ前需要确认erlang安装成功

# 解压 rabbitmq-server-generic-unix-3.9.13.tar.xz
[root@lee lee]# xz -d rabbitmq-server-generic-unix-3.9.13.tar.xz
[root@lee lee]# tar -xvf rabbitmq-server-generic-unix-3.9.13.tar
[root@lee lee]# mv rabbitmq_server-3.9.13/ rabbitmq

配置 RabbitMQ 环境变量

将 export PATH=$PATH:/lee/rabbitmq/bin:/lee/rabbitmq/sbin 添加到 /etc/profile 末尾

[root@lee lee]# vi /etc/profile
[root@lee lee]# source /etc/profile

后台启动 RabbitMQ

[root@lee lee]# rabbitmq-server -detached

查看端口 5672 存在表示启动成功

[root@lee lee]# ss -tnlp|grep 5672
LISTEN 0 128 *:25672 *:* users:((“beam.smp”,pid=8418,fd=17))
LISTEN 0 128 [::]:5672 [::]:* users:((“beam.smp”,pid=8418,fd=32))

添加rabbitmq浏览器管理插件

[root@lee lee]# rabbitmq-plugins enable rabbitmq_management

RabbitMQ有默认用户名密码 guest/guest,该用户名密码只能在本地登陆

如若在浏览器中登陆,须新创建用户名密码

添加用户名密码

[root@lee lee]# rabbitmqctl add_user rabbitmq_user rabbitmq_pwd

检查用户列表

[root@lee lee]# rabbitmqctl list_users
Listing users …
user tags
guest [administrator]
rabbitmq_user []

为 rabbitmq_user 用户添加administrator角色

[root@lee lee]# rabbitmqctl set_user_tags rabbitmq_user administrator
Setting tags for user “rabbitmq_user” to [administrator] …

设置 rabbitmq_user 用户权限,允许访问vhost及read/write

[root@lee lee]# rabbitmqctl set_permissions -p / rabbitmq_user “.*“ “.*“ “.*“
Setting permissions for user “rabbitmq_user” in vhost “/“ …

检查权限列表

[root@lee lee]# rabbitmqctl list_permissions -p /
Listing permissions for vhost “/“ …
user configure write read
guest .* .* .*
rabbitmq_user .* .* .*

启动消息队列服务

[root@lee lee]# rabbitmqctl start_app
Starting node rabbit@lee …

验证15672端口存在表示消息队列服务启动成功

[root@lee lee]# ss -tnlp | grep 15672
LISTEN 0 128 *:15672 *:* users:((“beam.smp”,pid=8418,fd=35))

 2.4 浏览器登陆RabbitMQ管理界面

在浏览器中访问 ip:15672 登陆管理页面,若重新安装 RabbitMQ 后,该界面底部出现 ReferenceError: disable_stats is not defined,ctrl+f5清除页面缓存后重新登陆

查看服务状态,若为绿色表示正常

3. 搭建RabbitMQ高可用集群

搭建集群前,需要在各个节点上安装好RabbitMQ,安装方法见 2.源码安装erlang、RabbitMQ,本文使用镜像模式搭建集群,HaProxy作为负载均衡,使用keepalived实现高可用。

3.1 镜像队列集群

 RabbitMQ集群可以使得在RabbitMQ节点宕机时,消费者和生产者可以继续运行;并且可以承载更多的业务量增加系统吞吐量。

普通模式集群下可能会丢失数据,例如生产者通过连接node1上传消息,消息实体只会保存到node1节点的Queue中,node2和node3节点只是保存相同的Queue结构,不保存消息实体,消费者如通过node2(或mode3)进行消费时,RabbitMQ会临时在node1和node2(或node3)之间进行消息传输,将node1中的消息通过node2(或node3)发送给消费者,在此期间node1发生宕机,node2(或node3)无法获取该消息,若该消息进行了持久化,则node1节点恢复后,该消息可继续被消费,若未进行持久化,则该消息会丢失。此时在普通模式集群的基础上构建镜像队列,可以将消息数据保存在多个节点上。

Haproxy通过负载均衡算法将消息分发给集群中的各个节点。

搭建两台Haproxuy,使用keepalived对其做高可用,两台keepalived服务器之间通过vrrp进行交互,对外通过虚拟ip(192.168.0.45)进行访问haproxy

总结:客户端通过虚拟ip(192.168.0.45)进行访问haproxy,通过keepalived会将其发放到MASTER节点上的haproxy,若MASTER节点上的Haproxy宕机,则会发放到SLAVE节点上,通过Haproxy会访问到RabbitMQ集群,通过集群访问各个RabbitMQ

 

3.2 搭建镜像模式集群

使用三台服务器制作集群,主机名可执行命令 hostname 查看

ip

主机名

部署的服务

192.168.0.1

 node1

RabbitMQ + HAProxy + KeepAlived

192.168.0.2

 node2

RabbitMQ + HAProxy + KeepAlived

192.168.0.3

 node3

RabbitMQ

 1、配置IP地址和主机名之间的映射

分别在三个节点上 /etc/hosts 文件中添加 三台服务器ip和主机名之间的映射

vi /etc/hosts

添加如下内容

192.168.0.1 node1
192.168.0.2 node2
192.168.0.3 node3

 2、同步erlang cookies

RabbitMQ是通过erlang编写,erlang语言通过同步erlang集群各个节点的cookie实现分布式。

随机选择一个节点(这里选择node1),将该节点上的 .erlang.cookie文件拷贝到另两个节点上,该文件相当于密钥令牌,集群中的各个节点通过该令牌进行相互认证。

RabbitMQ服务启动时,erlang虚拟机会自动创建.erlang.cookie文件,默认路径为 /var/lib/rabbitmq/.erlang.cookie(rpm方式安装)或$HOME/.erlang.cookie,该文件是个隐藏文件,可通过 ls -al查看。

在node1节点上执行如下命令同步 .erlang.cookie文件

# 将 node1上 /root/.erlang.cookie 拷贝到node2上
scp /root/.erlang.cookie node2:/root/.erlang.cookie

将 node1上 /root/.erlang.cookie 拷贝到node2上

scp /root/.erlang.cookie node3:/root/.erlang.cookie

分别在三个节点上查看该文件内容是否相同

more /root/.erlang.cookie

 3. RabbitMQ集群添加节点

分别在node2、node3节点执行如下命令,将node2、node3加入集群中

#在node2节点执行
#关闭应用
rabbitmqctl stop_app
#将node2加入集群中
rabbitmqctl join_cluster ‐‐ram rabbit@node2
#启动应用
rabbitmqctl start_app

#在node3节点执行
#关闭应用
rabbitmqctl stop_app
#将node3加入集群中
rabbitmqctl join_cluster ‐‐ram rabbit@node3
#启动应用
rabbitmqctl start_app

 4. 验证集群是否配置成功

执行如下命令进行验证

# 在任一节点执行如下命令验证集群是否配置成功
rabbitmqctl cluster_status

#出现如下内容表示成功
Disk Nodes

rabbit@node1
rabbit@node2
rabbit@node3

Running Nodes

rabbit@node1
rabbit@node2
rabbit@node3

 或使用任一节点 ip:15672 登陆管理页面,用户名密码为主节点node1的用户名密码,如下图显示绿色表示成功

 5. 配置镜像队列集群

 以上配置的集群只是普通集群,该集群下可能会丢失数据,例如生产者通过连接node1上传消息,消息实体只会保存到node1节点的Queue中,node2和node3节点只是保存相同的Queue结构,不保存消息实体,消费者如通过node2(或mode3)进行消费时,RabbitMQ会临时在node1和node2(或node3)之间进行消息传输,将node1中的消息通过node2(或node3)发送给消费者,在此期间node1发生宕机,node2(或node3)无法获取该消息,若该消息进行了持久化,则node1节点恢复后,该消息可继续被消费,若未进行持久化,则该消息会丢失。

如下为通过命令方式和管理页面方式实现:同步 virtual host 为 “/“下名称前缀为 “mirroring”的交换机和队列,并且自动保存到两个节点上

(1)命令行方式配置镜像队列

在任一节点上执行如下命令:

#同步 virtual host 为 “/“下名称前缀为 “mirroring”的交换机和队列,并且自动保存到两个节点上
rabbitmqctl set_policy -p / –priority 1 –apply-to all myPolicy “^mirroring” ‘{“ha-mode”:”exactly”,”ha-params”:2,”ha-sync-mode”:”automatic”}’

policy配置格式

rabbitmqctl set_policy [-p ] [–priority ] [–apply-to ]

policy参数说明

参数

描述

 -p

 可选参数,针对指定 Virtual host

 –priority

 可选参数,policy 的优先级

 –apply-to

 可选参数,策略适用的对象类型,其值可为 queues、exchanges、all,默认是 all

 name

 policy 的名称

 pattern

 匹配模式(正则表达式)

 definition

 镜像定义,json 格式,包括三部分(ha-mode,ha-params,ha-sync-mode)具体配置见下表

definition参数说明

参数

描述

 ha-mode

 ha-mode:指明镜像队列的模式,有效值为 all、exactly、nodes

     all:表示在集群中所有的节点上进行镜像
     exactly:表示在指定个数的节点上进行镜像,节点的个数由ha-params指定
          nodes:表示在指定的节点上进行镜像,节点名称通过ha-params指定

 ha-params

 ha-mode模式需要用到的参数(ha-mode=exactly时为整数,nodes时为字符串数组,all时不用指定)

ha-sync-mode

 ha-sync-mode:进行队列中消息的同步方式,有效值为automatic和manual

  manual:手动<默认模式>.新的队列镜像将不会收到现有的消息,它只会接收新的消息,除非显式调用同步命令

  automatic:自动同步,新加入节点时会默认同步已知的镜像队列

命令 rabbitmqctl sync_queue 队列名,手动同步队列
命令 rabbitmqctl cancel_sync_queue 队列名 取消某个queue的同步

(2)通过管理页面添加:通过该集群任一节点ip:15672登陆

 6. 集群策略相关命令

设置策略:rabbitmqctl set_policy [-p ] [–priority ] [–apply-to ]

清除策略:rabbitmqctl clear_policy [-p <vhost>] <name>

查看策略:rabbitmqctl list_policies [-p <vhost>]

7. 将某节点退出集群

# 在退出的节点上执行
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app

在主节点上执行(如去除node2),offline参数代表允许离线删除

rabbitmqctl forget_cluster_node node2 [–offline]

3.3 配置HaProxy负载均衡

 HAProxy提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费、 快速并且可靠的一种解决方案。HAProxy实现了一种事件驱动、单一进程模型,此模型支持非常大的并发连接数。

安装包下载地址:https://www.haproxy.org/#down

在linux上下载: wget https://www.haproxy.org/download/2.5/src/haproxy-2.5.5.tar.gz

 3.3.1 上传安装

系统内核:3.10.0-1160.53.1.el7.x86_64

选择两个节点分别安装 Haproxy,这里选择node1,node2节点(分别在两个节点上执行如下操作)

# 上传 haproxy-2.5.5.tar.gz 并解压(此次上传到/usr/local)
tar -zxvf haproxy-2.5.5.tar.gz
mv haproxy-2.5.5.tar.gz haproxy
cd haproxy

#编译并指定安装目录
make TARGET=linux-glibc ARCH=x86_64 PREFIX=/usr/local/haproxy

安装

make install PREFIX=/usr/local/haproxy

 参数说明:

TARGET和ARCH通过uname -r 查看服务器内核,根据内核信息匹配 haproxy/INSTALL(有些版本可查看 haproxy/README)中对应的参数,该参数不同版本有所区别

TARGET:内核版本

ARCH:系统CUP(64位为 x86_64)

PREFIX:指定安装目录

 3.3.2 配置 Haproxy 环境变量

vi /etc/profile

将如下内容导入该文件中

export HAPROXY\_HOME=/usr/local/haproxy   #安装路径 
export PATH=$PATH:$HAPROXY\_HOME/sbin

生效

source /etc/profile

 3.3.3 负载均衡配置

 创建用户,日志目录

#添加haproxy组
groupadd haproxy
#创建nginx运行账户haproxy并加入到haproxy组,不允许haproxy用户直接登录系统
useradd -g haproxy haproxy -s /bin/false

#创建haproxy错误日志目录
mkdir -p /usr/local/haproxy/errors
cp -r /usr/local/haproxy/examples/errorfiles/* /usr/local/haproxy/errors/

#创建日志文件
mkdir -p /usr/local/haproxy/logs
touch /usr/local/haproxy/logs/haproxy.log
#创建haproxy配置文件
mkdir -p /usr/local/haproxy/conf
touch /usr/local/haproxy/conf/haproxy.cfg
touch /usr/local/haproxy/stats

修改配置文件:/usr/local/haproxy/conf/haproxy.cfg

#‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐

Global settings

#‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐
global
log 127.0.0.1 local2
chroot /usr/local/haproxy
#haproxy的pid存放路径,启动进程的用户必须有权限访问此文件
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
#需要创建该文件
stats socket /usr/local/haproxy/stats

defaults
mode http
#采用全局定义的日志
log global
#日志类别http日志格式
option httplog
#不记录健康检查的日志信息
option dontlognull
#每次请求完毕后主动关闭http通道
option http-server-close
option forwardfor except 127.0.0.0/8
#serverId对应的服务器挂掉后,强制定向到其他健康的服务器
option redispatch
##3次连接失败就认为服务不可用,也可以通过后面设置
retries 3
timeout http-request 10s
timeout queue 1m

#default 10 second timeout if a backend is not found
timeout connect 10s
#客户端连接超时
timeout client 1m
#服务器连接超时
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
#最大连接数
maxconn 3000

#开启haproxy监控服务
listen rabbitmq_cluster
#通过6672对节点进行映射(自定义)
bind 0.0.0.0:6672
#记录tcp连接的状态和时间
option tcplog
#四层协议代理,即对TCP协议转发
mode tcp
#开启TCP的Keep Alive(长连接模式)
option clitcpka
#haproxy与mq建立连接的超时时间
timeout connect 1s
#客户端与haproxy最大空闲时间
timeout client 10s
#服务器与haproxy最大空闲时间
timeout server 10s
#采用轮询转发消息
balance roundrobin

#每5秒发送一次心跳包,如连续两次有响应则代表状态良好
#如连续三次没有响应,则视为服务故障,该节点将被剔除。
server node1 节点1 ip地址:5672 check inter 5s rise 2 fall 3
server node2 节点2 ip地址:5672 check inter 5s rise 2 fall 3

listen http_front
#监听端口-页面访问的端口(自定义)
bind 0.0.0.0:6001
#统计页面自动刷新时间stats refresh 30s
stats refresh 30s

#统计页面url (页面访问的uri,即浏览器通过 ip:6001/haproxy_stats 访问)
stats uri /haproxy_stats

指定Haproxy访问用户名密码

stats auth haproxy_admin:haproxy_pwd

########设置haproxy 错误页面#####
errorfile 403 /usr/local/haproxy/errors/403.http
errorfile 500 /usr/local/haproxy/errors/500.http
errorfile 502 /usr/local/haproxy/errors/502.http
errorfile 503 /usr/local/haproxy/errors/503.http
errorfile 504 /usr/local/haproxy/errors/504.http

开启日志记录:安装Haproxy之后,默认是没有开启日志记录的,需要根据rsyslog通过udp的方式获取Haproxy日志信息

vi /etc/rsyslog.conf
#打开以下两行注解,开启 514 USP监听
$ModLoad imudp
$UDPServerRun 514
#添加日志目录 (local2 与haproxy.cfg中global log保持一致)
local2.* /usr/local/haproxy/haproxy.log

vi /etc/sysconfig/rsyslog
#修改如下内容(若没有则添加)
SYSLOGD_OPTIONS=”-r -m 0 -c 2”
#重启生效
service rsyslog restart

 3.3.4 启动Haproxy验证

haproxy相关命令

# 检查配置文件语法
haproxy -c -f /usr/local/haproxy/haproxy.cfg

启动

haproxy -f /usr/local/haproxy/haproxy.cfg

以daemon模式启动,以systemd管理的daemon模式启动

haproxy -D -f /usr/local/haproxy/haproxy.cfg
haproxy -Ds -f /usr/local/haproxy/haproxy.cfg

启动调试功能,将显示所有连接和处理信息在屏幕

haproxy -d -f /usr/local/haproxy/haproxy.cfg

重启 需要使用st选项指定pid列表

haproxy -f /usr/local/haproxy.cfg -st `cat /var/run/haproxy.pid`

graceful restart,即reload。需要使用sf选项指定pid列表

haproxy -f /usr/local/haproxy.cfg -sf `cat /var/run/haproxy.pid`

显示haproxy编译和启动信息

haproxy -vv

 浏览器登陆 ip:6001/haproxy_stats,显示如下页面表示正常(须开放6001端口)

 3.4 安装keepalived

 官网下载地址:https://www.keepalived.org/download.html

 在安装Haproxy的两个节点 node1,node2 (192.168.0.1、192.168.0.2)上安装keepalived

# 安装依赖
yum install -y gcc openssl-devel popt-devel ipvsadm libnl3-devel net-snmp-devel libnl libnl-devel libnfnetlink-devel

上传安装包到 /usr/local 并解压

tar -zxvf keepalived-2.2.4

创建安装目录

mkdir /usr/local/keepalived

编译

cd keepalived-2.2.4
./configure –prefix=/usr/local/keepalived

安装

make && make install

创建keepalived配置文件目录 keepalived默认会读取 /etc/keepalived/keepalived.conf

madir keepalived.conf

cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
cp /usr/local/keepalived-2.2.4/keepalived/etc/init.d/keepalived /etc/init.d/
cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig
cp /usr/local/keepalived/sbin/keepalived /usr/sbin/

创建关闭keepalived的脚本

vi /etc/keepalived/stop_keepalived

脚本内容 监听haproxy端口 6001

#! /bin/bash
counter=$(ss -tanlp | grep “LISTEN” | grep “6001”|wc -l)
if [ “${counter}” -eq 0 ]
then
pkill keepalived
fi

 修改配置文件: vi /etc/keepalived/keepalived.conf

主节点node1上的配置文件

! Configuration File for keepalived

global_defs {
script_user root
enable_script_security
router_id node1
vrrp_skip_check_adv_addr

vrrp_strict

vrrp_garp_interval 0
vrrp_gna_interval 0
}

vrrp_instance VI_1 {
#keepalived角色,MASTER表示主节点 BACKUP从节点
state MASTER
#指定检测的网卡
interface eth0
#虚拟路由的id,主备节点设置相同
virtual_router_id 60
#优先级,主节点的优先级需要设置的比从节点高
priority 90
#设置主备之间的检查时间,单位s
advert_int 1
#定义验证类型和密码
authentication {
auth_type PASS
auth_pass 1111
}
# 另一个节点的ip
unicast_peer {
192.168.0.2
}
#虚拟ip
virtual_ipaddress {
192.168.0.45
}
}

virtual_server 192.168.0.45 6001 {
virtual_server
delay_loop 6
lb_algo rr
lb_kind NAT
persistence_timeout 50
protocol TCP

real\_server 192.168.0.1 6001 {
    weight 1
# 监控脚本
    notify\_down /etc/keepalived/stop\_keepalived.sh
    TCP\_CHECK {
      connect\_timeout 10
      retry 3
      connect\_port 6001
    }
}

}

 从节点node2配置文件

! Configuration File for keepalived

global_defs {
script_user root
enable_script_security
router_id node2
vrrp_skip_check_adv_addr

vrrp_strict

vrrp_garp_interval 0
vrrp_gna_interval 0
}

vrrp_instance VI_1 {
#keepalived角色,MASTER表示主节点 BACKUP从节点
state MASTER
#指定检测的网卡
interface eth0
#虚拟路由的id,主备节点设置相同
virtual_router_id 60
#优先级,主节点的优先级需要设置的比从节点高
priority 90
#设置主备之间的检查时间,单位s
advert_int 1
#定义验证类型和密码
authentication {
auth_type PASS
auth_pass 1111
}
# 另一个节点的ip
unicast_peer {
192.168.0.1
}
#虚拟ip
virtual_ipaddress {
192.168.0.45
}
}

virtual_server 192.168.0.45 6001 {
virtual_server
delay_loop 6
lb_algo rr
lb_kind NAT
persistence_timeout 50
protocol TCP

real\_server 192.168.0.2 6001 {
    weight 1
# 监控脚本
    notify\_down /etc/keepalived/stop\_keepalived.sh
    TCP\_CHECK {
      connect\_timeout 10
      retry 3
      connect\_port 6001
    }
}

}

 启动命令 /etc/init.d/keepalived start

关闭命令 /etc/init.d/keepalived stop

查看日志 tail -f /var/log/messages

验证:启动后在两个节点上使用 ip addr 命令,查看配置虚拟ip(192.168.0.45)是否在配置的网卡(eth0)下,如果主节点下存在从节点点不存在,说明正常,此时关闭主节点haproxy,虚拟ip(192.168.0.45)会漂移到从节点,重新启动主节点keepalived会重新漂移到主节点,此时可以根据 192.168.0.45连接haproxy