当前位置: 首页 > news >正文

MySQL高可用之MHA集群

目录

一、MHA概述

1.1 什么是 MHA

1.2 MHA 的组成

1.3 MHA 的特点

二、搭建 MySQL MHA

实验准备

2.1 配置主从同步

主从服务器时间同步

主服务器Master配置

从服务器Slave的配置

Slave1配置文件

Slave2配置文件

Slave1 服务配置

Slave2 服务配置

在 Master、Slave1、Slave2 节点上都创建两个软链接

所有数据库节点进行 mysql 授权

Slave1、Slave2 节点设置为只读模式

验证主从同步

2.2 安装 MHA 软件

在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有

安装MHA 软件包

在 MHA manager 节点上安装 manager 组件

扩展:manager组件安装后在/usr/local/bin下面会生成几个工具

扩展:node组件安装后也会在/usr/local/bin 下面会生成几个脚本

2.3 配置无密码认证

在mannager上配置到所有数据库节点的无密码认证

在master上配置到slave1和salve2的无密码认证

在slave1上配置到master和salve2的无密码认证

在slave2上配置到master和salve1的无密码认证

2.4 配置MHA

在MHA节点上复制相关脚本到/usr/local/bin目录

创建MHA软件目录并拷贝配置文件

2.5 测试

在Master服务器上手动开启vip 

测试无密码认证,如果正常会输出successfully

测试主从复制

在 manager 节点上启动 MHA

查看到当前的master节点是谁

查看当前日志信息

如果要关闭 manager 服务

查看master的VIP地址

三、故障模拟

3.1 在 manager 节点上监控观察日志记录

3.2 模拟master节点故障关闭服务

3.3 查看manager节点动态日志

3.4 故障切换备选主库的算法

四、故障修复

4.1 修复master

4.2 修复主从

4.3 在 manager 节点上修改配置文件app1.cnf

4.4  在 manager 节点上启动 MHA


一、MHA概述

1.1 什么是 MHA

MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。

MHA 的出现就是解决MySQL 单点故障的问题。

MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。

MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

1.2 MHA 的组成

1)MHA Node(数据节点)

  • MHA Node 运行在每台 MySQL 服务器上。

2)MHA Manager(管理节点)

  • MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
  • MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

1.3 MHA 的特点

  • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
  • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
  • 目前MHA支持一主多从架构,最少三台服务器,即一主两从

二、搭建 MySQL MHA

1)MHA架构:①数据库安装 ②一主两从 ③MHA搭建

2)故障模拟:①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

实验准备

MHA manager 服务器:192。168.114.100

Master 服务器:192.168.114.200

Slave1 服务器:192.168.114.59

Slave2 服务器:192.168.114.60

关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

2.1 配置主从同步

主从服务器时间同步

yum -y install ntpdate ntp    #下载软件
ntpdate ntp.aliyun.com    #时间同步

主服务器Master配置

vim /etc/my.cnf
server-id = 1            #server-id与从服务器server-id不能重复
log-bin=master-bin       #添加,主服务器开启二进制文件
log_slave-updates=true   #添加,允许从服务器更新二进制文件
 
systemctl restart mysqld #重启mysql服务

修改配置文件,配置完成重启服务

配置规则

mysql -uroot -p123456    #进入到数据库
 
grant replication slave on *.* to 'myslave'@'192.168.114.%' identified by '123456';
#允许192.168.114.0网段的所有主机使用myslave账号和123456密码登录并使用库和表
 
flush privileges;
#将用户和权限配置保存在内存中
 
show master status;
#查看master服务器当前正在执行的二进制日志位置,和列偏移量

从服务器Slave的配置

#从服务器1:192.168.114.59
vim /etc/my.cnf
server-id = 2    #id不能与master相同,两个从服务器slave也不能相同
log_bin = master-bin #以防单点故障的时候切换
relay-log=relay-log-bin   #添加,开启中继日志,从服务器上同步master服务器日志文件到本地
relay-log-index=slave-relay-bin.index   #添加,定义中继日志文件的位置和名称
 
systemctl restart mysqld    #重启MySQL
 
#从服务器2:192.168.114.60
vim /etc/my.cnf
server-id = 3
log_bin = master-bin #以防单点故障的时候切换
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
 
systemctl restart mysqld    #重启MySQL

Slave1配置文件

Slave2配置文件

Slave1 服务配置

mysql -uroot -p123456    #登录数据库
change master to master_host='192.168.114.200',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=604;
#配置同步,注意master_log_file和master_log_pos的值要与master查询的一致
 
start slave;   #启动同步,如有报错执行 reset slave;
 
show slave status\G    #查看slave状态(查看I/O和SQL都为YES)
 
#确保I/O和SQL线程都是YES,代表同步正常
Slave_IO_Running: Yes				#负责与主机的io通信
Slave_SQL_Running: Yes				#负责自己的slave mysql进程
 
##一般 "Slave_IO_Running: No" 的可能原因:
 1. 网络不通 
 2. my.cnf配置有问题(server-id重复)
 3. 密码、file文件名、pos偏移量不对 
 4. 防火墙没有关闭

Slave2 服务配置

mysql -uroot -p123456    #登录数据库
change master to master_host='192.168.114.200',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=604;
#配置同步,注意master_log_file和master_log_pos的值要与master查询的一致
 
start slave;   #启动同步,如有报错执行 reset slave;
 
show slave status\G    #查看slave状态(查看I/O和SQL都为YES)
 
#确保I/O和SQL线程都是YES,代表同步正常
Slave_IO_Running: Yes				#负责与主机的io通信
Slave_SQL_Running: Yes				#负责自己的slave mysql进程
 
##一般 "Slave_IO_Running: No" 的可能原因:
 1. 网络不通 
 2. my.cnf配置有问题(server-id重复)
 3. 密码、file文件名、pos偏移量不对 
 4. 防火墙没有关闭

在 Master、Slave1、Slave2 节点上都创建两个软链接

将mysql命令和日志软链接到/usr/sbin,便于系统识别

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

所有数据库节点进行 mysql 授权

mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.114.%' identified by '123456';		#从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.114.%' identified by 'manager';		#manager 使用

grant all privileges on *.* to 'mha'@'master' identified by 'manager';				#防止从库通过主机名连接不上主库
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';

flush privileges;

  

Slave1、Slave2 节点设置为只读模式

set global read_only=1;

验证主从同步

2.2 安装 MHA 软件

在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有

#安装epel源,并且不进行gph检查
yum install epel-release --nogpgcheck -y

yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

#perl针对于mysql数据库
#从配置文件中提拿其中的值
#log-日志
#多线程管理
#扩展工具CBuilder  MakeMaker
#cpan perl中的数据库

注:所有服务器都要安装依赖环境,包括MHA manager服务器

安装MHA 软件包

在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件

#node组件
cd /mnt
mkdir mha
cd mha
上传压缩包

tar zxvf /mnt/mha/mha4mysql-node-0.57.tar.gz -C /root
cd /root/mha4mysql-node-0.57
perl Makefile.PL
make && make install

注:所有服务器都要安装,这里就不一一截图展示了。 

在 MHA manager 节点上安装 manager 组件

tar zxvf /mnt/mha/mha4mysql-manager-0.57.tar.gz -C /root
cd /root/mha4mysql-manager-0.57
perl Makefile.PL
make && make install

扩展:manager组件安装后在/usr/local/bin下面会生成几个工具

主要包括以下几个:

masterha_check_ssh检查 MHA 的 SSH 配置状况
masterha_check_repl检查 MySQL 复制状况
masterha_manger启动 manager的脚本
masterha_check_status检测当前 MHA 运行状态
masterha_master_monitor检测 master 是否宕机
masterha_master_switch控制故障转移(自动或者手动)
masterha_conf_host添加或删除配置的 server 信息
masterha_stop关闭manager

扩展:node组件安装后也会在/usr/local/bin 下面会生成几个脚本

这些工具通常由 MHAManager 的脚本触发,无需人为操作,主要如下:

save_binary_logs保存和复制 master 的二进制日志
apply_diff_relay_logs识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog去除不必要的 ROLLBACK 事件
purge_relay_logs清除中继日志(不会阻塞 SQL线程)

2.3 配置无密码认证

在mannager上配置到所有数据库节点的无密码认证

ssh-keygen -t rsa 				#一路按回车键
ssh-copy-id 192.168.114.200     #master
ssh-copy-id 192.168.114.59     #slave1
ssh-copy-id 192.168.114.60     #slave2

在master上配置到slave1和salve2的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.114.59
ssh-copy-id 192.168.114.60

在slave1上配置到master和salve2的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.114.200
ssh-copy-id 192.168.114.60

在slave2上配置到master和salve1的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.114.200
ssh-copy-id 192.168.114.59

2.4 配置MHA

在MHA节点上复制相关脚本到/usr/local/bin目录

cp -ra /root/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin

#-a:此选项通常在复制目录时使用,它保留链接、文件属性,并复制目录下的所有内容
#-r: 递归

#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/

master_ip_failover			#自动切换时 VIP管理的脚本⭐⭐⭐
master_ip_online_change		#在线切换时 VIP的管理
power_manager				#故障发生后关闭主机的脚本
send_report					#因故障切换后发送报警的脚本

#复制上述的master_ip_failover	到/usr/local/bin目录 这里使用脚本管理VIP
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

#修改master_ip_failover内容(删除原有内容,直接复制)

vim /usr/local/bin/master_ip_failover

#!/usr/bin/env perl 
use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.226.100';		#浮动IP
my $brdc = '192.168.226.255';	#广播地址
my $ifdev = 'ens33';		#使用的网卡为ens33
my $key = '1';			#国际序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";							#使用ifoconfig命令将其启动,同时设置浮动地址
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";							#可以使用ifconfig命令将其down掉(关闭)
my $exit_code = 0;			#正常退出(返回状态码)
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

#去除#开头的部分,PS:第一行添加#
% s/^#//

创建MHA软件目录并拷贝配置文件

mkdir /etc/masterha
cp /root/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/
vim /etc/masterha/app1.cnf

[server default]
#日志文件
manager_log=/var/log/masterha/app1/manager.log
#工作目录
manager_workdir=/var/log/masterha/app1
#二进制文件
master_binlog_dir=/usr/local/mysql/data
#故障转移切换的工具
master_ip_failover_script=/usr/local/bin/master_ip_failover
#在线切换VIP工具管理
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
#以下是密码账号的管理配置
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.114.59 -s 192.168.114.60
shutdown_script=""
ssh_user=root
user=mha

[server1]
hostname=192.168.114.200
port=3306

[server2]
candidate_master=1
hostname=192.168.114.59
check_repl_delay=0
port=3306

[server3]
hostname=192.168.114.60
port=3306

2.5 测试

在Master服务器上手动开启vip 

ifconfig ens33:1 192.168.114.120/24
ifconfig

测试无密码认证,如果正常会输出successfully

masterha_check_ssh -conf=/etc/masterha/app1.cnf

测试主从复制

masterha_check_repl -conf=/etc/masterha/app1.cnf

如果提示日志文件出现问题,请检查是否是因为三个服务器软链接导致出现问题

或者出现问题检查,注释主从三台服务器中的中文字符集

在 manager 节点上启动 MHA

#启动时会进行日志记录(在后台开启)
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

解释:
ohup 	//选项 

masterha_manager 	//开启

--conf=/etc/masterha/app1.cnf  //指定配置文件

--remove_dead_master_conf //当master服务器失效时,发生主从切换后,会把旧的master的ip从主配置文件删

--ignore_last_failover//忽略故障转移,忽略掉总是宕机不够可靠的服务器
在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failove之所以这样限制是为了避免ping-pong效应。该参数代表忽略桑次MHA出发切换产生的文件,默认情况 MHA发生切换后会在日志记录下,也就是上面设置的日志app1.failover.complete文件,
下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件:为了方便,这里设为为--ianore_last_failover
< /dev/null> //生成的所有信息会导到nul1下或者/var/log/masterha/app1/manager.log日志文件中
2>&1&  //把2错误性的输山从定向为标准性输山,"&"开启后台运行

查看到当前的master节点是谁

masterha_check_status --conf=/etc/masterha/app1.cnf

查看当前日志信息

cat /var/log/masterha/app1/manager.log 

如果要关闭 manager 服务

masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭

查看master的VIP地址

三、故障模拟

3.1 在 manager 节点上监控观察日志记录

tail -f /var/log/masterha/app1/manager.log

3.2 模拟master节点故障关闭服务

正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。

3.3 查看manager节点动态日志

3.4 故障切换备选主库的算法

  1. 一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
  2. 数据一致的情况下,按照配置文件顺序,选择备选主库。
  3. 设定有权重(candidate_master=1),按照权重强制指定备选主。

默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。

如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

四、故障修复

4.1 修复master

systemctl restart mysqld

4.2 修复主从

在现主库服务器 Slave1查看二进制文件和同步点

mysql -u root -p
show master status;

在原主库服务器执行同步操作

change master to master_host='192.168.114.59,master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=154;

start slave;
show slave status\G

4.3 在 manager 节点上修改配置文件app1.cnf

再把这个记录添加进去,因为它检测掉失效时候会自动消失

vim /etc/masterha/app1.cnf

[server default]
#日志文件
manager_log=/var/log/masterha/app1/manager.log
#工作目录
manager_workdir=/var/log/masterha/app1
#二进制文件
master_binlog_dir=/usr/local/mysql/data
#故障转移切换的工具
master_ip_failover_script=/usr/local/bin/master_ip_failover
#在线切换VIP工具管理
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
#以下是密码账号的管理配置
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.114.60 -s 192.168.114.200
shutdown_script=""
ssh_user=root
user=mha

[server1]
hostname=192.168.114.59
port=3306

[server2]
candidate_master=1
hostname=192.168.114.200
check_repl_delay=0
port=3306

[server3]
hostname=192.168.114.60
port=3306

修改原master服务器为slave1 修改备用服务器为原master

4.4  在 manager 节点上启动 MHA

重启服务
masterha_stop --conf=/etc/masterha/app1.cnf

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

#查看到当前的master节点是谁
masterha_check_status --conf=/etc/masterha/app1.cnf

此时,master服务器已经变成了 原slave1

相关文章:

  • Hive数据类型、部分函数及关键字整理
  • Python采集某Top 250信息,再也不怕寂寞无聊......
  • 【XGBoost】第 2 章:深度决策树
  • 如何在Linux服务器上部署Vue项目
  • 基于 velero 工具迁移 kubesphere 后端存储
  • SAP PI PO 接口常见问题处理:队列平衡的统计平均分配
  • Vue学习之旅——开发准备
  • 【Unity小功能开发实战教程】重写MaskableGraphic实现UI图片圆角化功能
  • drools动态规则之Maven解析
  • 【收藏系列】多线程八股文总结
  • [Typescript]基础篇之接口
  • 现学现用的 10 个 Python 技巧
  • 3 UI开发的点点滴滴
  • 群晖docker实现IPV6访问
  • 攻防比赛中通过供应链进行渗透攻击
  • python3.6+scrapy+mysql 爬虫实战
  • 【划重点】MySQL技术内幕:InnoDB存储引擎
  • Android开源项目规范总结
  • ES6 学习笔记(一)let,const和解构赋值
  • Java 23种设计模式 之单例模式 7种实现方式
  • tensorflow学习笔记3——MNIST应用篇
  • VUE es6技巧写法(持续更新中~~~)
  • 闭包,sync使用细节
  • 分享一个自己写的基于canvas的原生js图片爆炸插件
  • 关于字符编码你应该知道的事情
  • 观察者模式实现非直接耦合
  • 【运维趟坑回忆录】vpc迁移 - 吃螃蟹之路
  • 格斗健身潮牌24KiCK获近千万Pre-A轮融资,用户留存高达9个月 ...
  • #Linux杂记--将Python3的源码编译为.so文件方法与Linux环境下的交叉编译方法
  • #我与Java虚拟机的故事#连载07:我放弃了对JVM的进一步学习
  • (10)STL算法之搜索(二) 二分查找
  • (11)MATLAB PCA+SVM 人脸识别
  • (delphi11最新学习资料) Object Pascal 学习笔记---第8章第5节(封闭类和Final方法)
  • (ZT)薛涌:谈贫说富
  • (二)学习JVM —— 垃圾回收机制
  • (分布式缓存)Redis分片集群
  • (附源码)spring boot车辆管理系统 毕业设计 031034
  • (官网安装) 基于CentOS 7安装MangoDB和MangoDB Shell
  • (排序详解之 堆排序)
  • (十七)devops持续集成开发——使用jenkins流水线pipeline方式发布一个微服务项目
  • (算法)前K大的和
  • (译)2019年前端性能优化清单 — 下篇
  • **PHP二维数组遍历时同时赋值
  • .NET的微型Web框架 Nancy
  • .NET中两种OCR方式对比
  • @test注解_Spring 自定义注解你了解过吗?
  • [ IOS ] iOS-控制器View的创建和生命周期
  • [20181219]script使用小技巧.txt
  • [AndroidStudio]_[初级]_[修改虚拟设备镜像文件的存放位置]
  • [APIO2015]巴厘岛的雕塑
  • [BUG] Hadoop-3.3.4集群yarn管理页面子队列不显示任务
  • [C]整形提升(转载)
  • [Delphi]一个功能完备的国密SM4类(TSM4)[20230329更新]
  • [hdu 2826] The troubles of lmy [简单计算几何 - 相似]
  • [hdu 2896] 病毒侵袭 [ac自动机][病毒特征码匹配]