vlambda博客
学习文章列表

可靠保障MyCat集群

前言

上一回已写mycat基本操作,估计足以应付各位的实际需求。但是现代的社会没有集群,你自己都不敢保证自己的服务是否是高可用的。

所以本文主要包含mycat集群,mycat+ha实现负载均衡等操作。

mycat集群

1、安装zookeeper集群

mycat是阿里出品的一个数据库中间件,它可以依赖zookeeper进行集群化的,所以需要准备一套zookeeper集群,具体操作如下:

Zookeeper集群搭建

2、配置mycat连接zookeeper

将你配置好的mycat的配置文件( server.xml、schema.xml、 rule.xml、sequence_conf.properties)拷贝到mycat配置文件的中的zkconf目录中

cp schema.xml server.xml rule.xml sequence_conf.properties zkconf/

3、初始化mycat配置到zk集群

首先找到mycat提供的初始化数据到zookeeper的shell脚本:/usr/local/mycat/bin/init_zk_data.sh 执行命令

../bin/init_zk_data.sh

如果报错:-bash: ./init_zk_data.sh: /bin/bash^M: bad interpreter: No such file or directory

解决方案:

http://8rr.co/v9ms

http://8rr.co/v9mE

4、连接zookeeper并验证

连接zookeeper服务器,在zk客户端中执行

ls /mycat/mycat-cluster-1/schema
get /mycat/mycat-cluster-1/schema/dataHost

5、配置mycat支持zk启动

所有的mycat的conf目录下找到myid.properties文件,并修改如下:

loadZk=true
zkURL=192.168.56.10:2181,192.168.56.11:2181,192.168.56.12:2181
clusterId=mycat-cluster-1
myid=mycat_01
clusterSize=2
clusterNodes=mycat_01,mycat_02
#server booster ; booster install on db same server,will reset all minCon to 2
type=server
boosterDataHosts=dataHost1

6、然后重启所有的mycat

你会发现没有配置的其他mycat会自动找到所有的server.xml,schema.xml,rule.xml等配置。

至此mycat的集群已经搭建完毕!!

mycat+HA实现高可用

以上的mycat+zk搭建的集群其实无法实现负载均衡以及高可用。还需要借助haproxy+keepalived才能真正实现高可用。

以下配置在每个mycat所在的服务器都要做一遍。

1、安装网络守护进程服务xinetd

yum -y install xinetd

vi /etc/xinetd.conf    ##确保配置中包含最后一行includedir xxxx
可靠保障MyCat集群

创建一个mycat_status的服务

vi /etc/xinetd.d/mycat_status
### 内容如下:
service mycat_status
{
        flags = REUSE
        socket_type = stream
        port = 48700
        wait = no
        user = root
        server = /usr/local/mycat/bin/mycat_status
        log_on_failure += USERID
        disable = no
}

创建一个检测mycat的状态脚本

vi /usr/local/mycat/bin/mycat_status

给脚本赋予可操作权限:

chmod a+x /usr/local/mycat/bin/mycat_status

检查mycat状态的脚本内容:

#!/bin/bash
#/usr/local/mycat/bin/mycat_status
# This script checks if a mycat server is healthy running on localhost. It will
# return:
#
# "HTTP/1.x 200 OK\r" (if mycat is running smoothly)
#
# "HTTP/1.x 503 Internal Server Error\r" (else)
mycat=`/usr/local/mycat/bin/mycat status | grep 'not running' | wc -l`
if [ "$mycat" = "0" ];
then
/bin/echo -e "HTTP/1.1 200 OK\r\n"
else
/bin/echo -e "HTTP/1.1 503 Service Unavailable\r\n"
fi

注册一个mycat_status服务

vi /etc/services
### 内容如下:
mycat_status    48700/tcp               # mycat_status

最后启动xinetd:

systemctl restart xinetd

2、安装haproxy

yum -y install haproxy 即可实现下载安装

vi /etc/haproxy/haproxy.cfg 修改配置如下,修改成你对应的ip和端口即可

global
log 127.0.0.1 local0 ##记日志的功能
maxconn 4096
chroot /usr/local/haproxy
daemon

defaults
log global
option dontlognull
retries 3
option redispatch
maxconn 2000
timeout connect 5000
timeout client 50000
timeout server 50000


listen admin_status
bind :1080 ##VIP
stats uri /stats ##统计页面
stats auth admin:admin
mode http
option httplog

listen allmycat_service
bind :8096 ##转发到 mycat 的 8066 端口,即 mycat 的服务端口
mode tcp
option tcplog
option httpchk OPTIONS * HTTP/1.1\r\nHost:\ www
balance roundrobin
server mycat_10 192.168.56.10:8066 check port 48700 inter 5s rise 2 fall 3
server mycat_12 192.168.56.12:8066 check port 48700 inter 5s rise 2 fall 3
timeout server 20000

listen allmycat_admin
bind :8097 ##转发到 mycat 的 9066 端口,即 mycat 的管理控制台端口
mode tcp
option tcplog
option httpchk OPTIONS * HTTP/1.1\r\nHost:\ www
balance roundrobin
server mycat_10 192.168.56.10:9066 check port 48700 inter 5s rise 2 fall 3
server mycat_12 192.168.56.12:9066 check port 48700 inter 5s rise 2 fall 3
timeout server 20000

启动haproxy:

haproxy -f /etc/haproxy/haproxy.cfg

验证:netstat -ntlp 查看端口8096和8097是否启动成功。

浏览器访问http://192.168.56.12:1080/stats查看mycat的状态(都是UP的就ok了)如下:

3、安装Keepalived

yum -y install keepalived 下载安装

添加虚拟ip操作:http://8rr.co/v9Eb

修改配置文件

vi /etc/keepalived/keepalived.conf
### 内容如下:
####=====================================================

! Configuration File for keepalived
##global_defs {
## keepalived 自带的邮件提醒需要开启 sendmail 服务。建议用独立的监控或第三方 SMTP
## router_id liuyazhuang135 ## 标识本节点的字条串,通常为 hostname
##}
## keepalived 会定时执行脚本并对脚本执行的结果进行分析,动态调整 vrrp_instance 的优先级。
## 如果脚本执行结果为 0,并且 weight 配置的值大于 0,则优先级相应的增加。
## 如果脚本执行结果非 0,并且 weight 配置的值小于 0,则优先级相应的减少。
## 其他情况,维持原本配置的优先级,即配置文件中 priority 对应的值。
vrrp_script chk_haproxy {
script "/etc/keepalived/haproxy_check.sh" ## 检测 haproxy 状态的脚本路径
interval 2 ## 检测时间间隔
weight 2 ## 如果条件成立,权重+2
}
## 定义虚拟路由, VI_1 为虚拟路由的标示符,自己定义名称
vrrp_instance VI_1 {
state MASTER ## 默认主设备(priority 值大的)和备用设备(priority 值小的)都设置为 BACKUP,
## 由 priority 来控制同时启动情况下的默认主备,否则先启动的为主设备
interface enp0s3 ## 绑定虚拟 IP 的网络接口,与本机 IP 地址所在的网络接口相同,我的是 eth3
virtual_router_id 51 ## 虚拟路由的 ID 号,两个节点设置必须一样,可选 IP 最后一段使用,
## 相同的 VRID 为一个组,他将决定多播的 MAC 地址
priority 150 ## 节点优先级,值范围 0-254, MASTER 要比 BACKUP 高
nopreempt ## 主设备(priority 值大的)配置一定要加上 nopreempt,否则非抢占也不起作用
advert_int 1 ## 组播信息发送间隔,两个节点设置必须一样,默认 1s
## 设置验证信息,两个节点必须一致
authentication {
auth_type PASS
auth_pass 1111 ## 真实生产,按需求对应该过来
}
## 将 track_script 块加入 instance 配置块
track_script {
chk_haproxy ## 检查 HAProxy 服务是否存活
}
## 虚拟 IP 池, 两个节点设置必须一样
virtual_ipaddress {
192.168.56.88 ## 虚拟 ip,可以定义多个,每行一个
}
}

添加检测haproxy是否存活的脚本

vi /etc/keepalived/haproxy_check.sh

以下需要注意START_HAPROXY的路径要对应你自己安装的路径:

#!/bin/bash
START_HAPROXY="/usr/sbin/haproxy -f /etc/haproxy/haproxy.cfg"
STOP_KEEPALIVED="/etc/init.d/keepalived stop"
LOG_FILE="/var/log/keepalived-haproxy-state.log"
HAPS=`ps -C haproxy --no-header |wc -l`
date "+%Y-%m-%d %H:%M:%S" >> $LOG_FILE
echo "check haproxy status" >> $LOG_FILE
if [ $HAPS -eq 0 ];then
echo $START_HAPROXY >> $LOG_FILE
$START_HAPROXY >> $LOG_FILE 2>&1
sleep 3
if [ `ps -C haproxy --no-header |wc -l` -eq 0 ];then
echo "start haproxy failed, killall keepalived" >> $LOG_FILE
killall keepalived
fi
fi

给脚本赋予权限

chmod a+x /etc/keepalived/haproxy_check.sh

启动keepalived

service keepalived start

验证是否成功。

可以在一个主服务器执行service keepalived stop,观察另外一个备份服务器的ip addr是否已经是添加了虚拟ip

参考文章

Mycat之——高可用负载均衡集群的实现(HAProxy + Keepalived + Mycat)

Mycat之——Mycat集群部署(基于HAProxy + Mycat

Mycat之——Mycat集群优化

MyCat不支持的SQL语句

Mycat 分布式事务的实现

注:如果想看参考文章可以点击阅读原文。