目录
1、MHA理论:
1.1、MHA概述
1.2、MHA的组成:
1.3、特点:
1.4、传统的MySQL主从架构存在一些常见的问题:
1.5、MHA工作原理总结如下
1.6、 故障切换备选主库的算法:
2、 故障转移实验
2.1、搭建 MySQL MHA思路
2.1、配置主从复制数据同步
2.1.1、.Master、Slave1、Slave2 节点上安装 mysql5.7
2.1.2.修改 Master、Slave1、Slave2 节点的主机名
2.1.3.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
2.1.4、在 Master、Slave1、Slave2 节点上都创建两个软链接
2.1.5、配置 mysql 一主两从
2.1.5.1、所有数据库节点进行 mysql 授权
2.1.5.2、在 Master 节点查看二进制文件和同步点
2.1.5.3、 在 Slave1、Slave2 节点执行同步操作
2.1.5. 4、
2.1.5.5、
2.1.5.6、插入数据测试数据库同步 ##在 Master 主库插入条数据,测试是否同步##
2.2、安装MHA所有组件
2.2.1、安装 MHA 软件
2.2.1.1、所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
2.2.1.2、安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
2.2.1.3、在 MHA manager 节点上安装 manager 组件
2.2.2、.在所有服务器上配置无密码认证
2.2.3、在 manager 节点上配置 MHA
2.2.3.1、在 manager 节点上复制相关脚本到/usr/local/bin 目录
2.2.3.2、复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,
2.2.3.3、修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
2.2.3.4、创建 MHA 软件目录并拷贝配置文件,
2.2.3、第一次配置需要在 Master 节点上手动开启虚拟IP
2.2.4、在 manager 节点上测试 ssh 无密码认证,
2.2.5.在 manager 节点上测试 mysql 主从连接情况,
2.2.6.在 manager 节点上启动 MHA
2.2.7.查看 MHA 状态,可以看到当前的 master 是 master 节点。
2.2.8、查看 MHA 日志,
2.2.9、 查看master 的 VIP 地址 192.168.10.200 是否存在
2.3、故障模拟
2.3.1在 manager 节点上监控观察日志记录
2.3.2、在 Master 节点 master 上停止mysql服务
2.4、故障修复步骤:
2.4.1.修复mysql
2.4.2.修复主从
2.4.3、在 manager 节点上修改配置文件app1.cnf
2.4.4.在 manager 节点上启动 MHA
1、MHA理论:
1.1、MHA概述
- 。一套优秀的MySQL高可用环境下故障切换和主从复制的软件
- MHA的出现就是解决MySQL 单点的问题
- MySQL故障过程中,MHA能做到0-30秒内自动完成故障切换
- MHA能在故障切换的过程中最大程度上保证数据的一致性以达到真正意义上的高可用
是一个用于MySQL数据库主从复制环境的自动故障切换和恢复工具。它旨在提供高可用性和故障容忍性,确保在主服务器发生故障时能够快速地进行自动切换,并使一个从服务器成为新的主服务器。
MHA的核心目标是实现数据库的持续可用性,减少因主服务器故障而导致的服务中断时间。它通过监控主服务器、二进制日志和从服务器的复制进程来检测主服务器是否发生故障。一旦主服务器故障,MHA会自动选择一个适当的从服务器作为新的主服务器,并更新其他从服务器的配置,使其连接到新的主服务器上。
1.2、MHA的组成:
MHA Manager (管理节点)
MHA Node (数据节点)
MHA特点和功能
1.3、特点:
1、自动故障切换过程中,MHA试图从宕机的主服务器上保存进制日志,最大程度的保证数据不丢失
2、使用半同步复制,可以大大降低数据丢失的风险
3、目前MHA支持一主多从架构,最少三台服务,即一主两从
-
自动故障检测和切换:MHA能够迅速检测主服务器故障,并自动触发故障转移操作,将一个从服务器升级为新的主服务器。
-
快速故障转移时间:MHA能够在几秒钟内完成主从切换,最大限度地减少服务中断时间和数据丢失。
-
数据一致性维护:MHA确保故障转移后新的主服务器与原主服务器的数据保持一致,通过同步二进制日志等机制实现数据的无缝切换。
-
自动修复和重新同步:MHA提供了自动修复和重新同步的功能,处理主从数据不一致的情况,并尽可能减少管理员的手动干预。
MHA是一个开源工具,广泛应用于各种规模的MySQL部署。它为数据库系统提供了高可用性、故障容忍性和自动化故障恢复的解决方案,帮助维持业务连续运行并保护数据的完整性
1.4、传统的MySQL主从架构存在一些常见的问题:
1. 单点故障:在传统的MySQL主从架构中,主服务器是负责写操作的关键节点。如果主服务器发生故障,整个系统将无法处理写操作,导致服务中断或数据丢失。
2. 数据延迟:在主从架构中,主服务器负责处理写操作,而从服务器负责处理读操作。由于数据需要通过异步的复制机制进行同步,从服务器上的数据与主服务器之间可能存在一定的延迟。这意味着读取到的数据可能不是最新的,影响了数据的实时性和一致性。
3. 写扩展性限制:传统的主从架构对于写操作的扩展性有一定的限制。所有的写操作必须经过主服务器进行处理,并且需要等待数据同步到从服务器后才能返回成功。当写操作的并发量增加时,主服务器的压力会增大,可能成为瓶颈。
4. 自动切换复杂性:在传统的主从架构中,当主服务器发生故障或需要维护时,需要手动将一个从服务器提升为新的主服务器。这涉及到配置更改、数据同步等复杂的操作,容易出现人为错误和停机时间较长的问题。
5. 数据一致性难以保证:由于主从复制是通过异步的方式进行数据同步,存在网络延迟、复制延迟等因素,从服务器上的数据与主服务器之间可能存在一定的差异。在故障恢复或切换过程中,需要特别注意数据一致性的问题。
针对以上问题,可以采用读写分离、MySQL集群、MySQL主从加双主等架构模式来解决。这些新的架构模式可以提供更高的可用性、更好的扩展性和数据一致性。
1.5、MHA工作原理总结如下
- 从宕机崩溃的master保存二进制日志事件 (binlogevents)
- 识别含有最新的更新slave 日志
- 应用差异的中继日志 (relay og) 到其他的slave
- 应用从master保存的二进制日志事件
- 提升一个 salve 为新的master
- 使其他的slave连接行的master 进行复制。
1.6、 故障切换备选主库的算法:
- 一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
- 数据一致的情况下,按照配置文件顺序,选择备选主库。
- 设定有权重(candidate_master=1),按照权重强制指定备选主。 (1 )默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。 (2) 如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
2、 故障转移实验
2.1、搭建 MySQL MHA思路
实验思路:
1.MHA架构
1)数据库安装 2)一主两从 3)MHA搭建
2.故障模拟
1)主库失效 2)备选主库成为主库 3)原故障主库恢复重新加入到MHA成为从库
MHA manager 节点服务器:CentOS7.6(64 位) manager/192.168.41.24 ,安装MHA node 和 manager 组件 Master 节点服务器:CentOS7.6(64 位) mysql1/192.168.41.21 ,安装mysql5.7、MHA node 组件 Slave1 节点服务器:CentOS7.6(64 位) mysql2/192.168.41.22 ,安装mysql5.7、MHA node 组件 Slave2 节点服务器:CentOS7.6(64 位) mysql3/192.168.41.23 ,安装mysql5.7、MHA node 组件
防火墙关闭
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
2.1、配置主从复制数据同步
2.1.1、.Master、Slave1、Slave2 节点上安装 mysql5.7
在这之前已经安装了mysql数据库
2.1.2.修改 Master、Slave1、Slave2 节点的主机名
因人而异,看自己情况改
2.1.3.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = truesystemctl restart mysqld##Slave1 节点##
vim /etc/my.cnf
server-id = 2 #三台服务器的 server-id 不能一样
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.indexsystemctl restart mysqld###Slave2 节点##
vim /etc/my.cnf #三台服务器的 server-id 不能一样
server-id = 3
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.indexsystemctl restart mysqld
2.1.4、在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
2.1.5、配置 mysql 一主两从
2.1.5.1、所有数据库节点进行 mysql 授权
mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by '123456'; #从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.10.%' identified by 'manager'; #manager 使用grant all privileges on *.* to 'mha'@'master' identified by 'manager'; #防止从库通过主机名连接不上主库
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
flush privileges;
2.1.5.2、在 Master 节点查看二进制文件和同步点
show master status;
2.1.5.3、 在 Slave1、Slave2 节点执行同步操作
change master to master_host='192.168.10.16',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1745; start slave;
2.1.5. 4、
在 Slave1、Slave2 节点查看数据同步结果
show slave status\G
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
2.1.5.5、
两个从库必须设置为只读模式:
set global read_only=1;
2.1.5.6、插入数据测试数据库同步 ##在 Master 主库插入条数据,测试是否同步##
create database test_db; use test_db; create table test(id int); insert into test(id) values (1);
2.2、安装MHA所有组件
2.2.1、安装 MHA 软件
2.2.1.1、所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -yyum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
2.2.1.2、安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
2.2.1.3、在 MHA manager 节点上安装 manager 组件
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者 手动)
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop 关闭manager
#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
2.2.2、.在所有服务器上配置无密码认证
在 manager 节点上配置到所有数据库节点的无密码认证
主从服务器上分别进行配置
分贝配置另外两台的地址
2.2.3、在 manager 节点上配置 MHA
2.2.3.1、在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
//拷贝后会有四个执行文件
2.2.3.2、复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,
这里使用master_ip_failover脚本来管理 VIP 和故障切换
2.2.3.3、修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';use Getopt::Long;my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.10.200'; #指定vip的地址
my $brdc = '192.168.10.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.10.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.10.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);exit &main();sub main {print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";if ( $command eq "stop" || $command eq "stopssh" ) {my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}## A simple system call that disable the VIP on the old_mastersub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
2.2.3.4、创建 MHA 软件目录并拷贝配置文件,
这里使用app1.cnf配置文件来管理 mysql 节点服务器
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
vim /etc/masterha/app1.cnf #删除原有内容,直接复制并修改节点服务器的IP地址
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.14 -s 192.168.10.15
shutdown_script=""
ssh_user=root
user=mha[server1]
hostname=192.168.10.16
port=3306[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.10.14
port=3306[server3]
hostname=192.168.10.15
port=3306
2.2.3、第一次配置需要在 Master 节点上手动开启虚拟IP
/sbin/ifconfig ens33:1 192.168.41.200/24
2.2.4、在 manager 节点上测试 ssh 无密码认证,
如果正常最后会输出 successfully,如下所示
masterha_check_ssh -conf=/etc/masterha/app1.cnf
2.2.5.在 manager 节点上测试 mysql 主从连接情况,
最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
masterha_check_repl -conf=/etc/masterha/app1.cnf
2.2.6.在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &#生产中java 服务启动的方式
2.2.7.查看 MHA 状态,可以看到当前的 master 是 master 节点。
masterha_check_status --conf=/etc/masterha/app1.cnf
2.2.8、查看 MHA 日志,
也以看到当前的 master 是 192.168.10.16,如下所示。
cat /var/log/masterha/app1/manager.log | grep "current master"
2.2.9、 查看master 的 VIP 地址 192.168.10.200 是否存在
,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
ifconfig
//若要关闭 manager 服务,可以使用如下命令。 masterha_stop --conf=/etc/masterha/app1.cnf 或者可以直接采用 kill 进程 ID 的方式关闭。
2.3、故障模拟
2.3.1在 manager 节点上监控观察日志记录
tail -f /var/log/masterha/app1/manager.log
2.3.2、在 Master 节点 master 上停止mysql服务
systemctl stop mysqld
正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master 节点删除。查看 slave1 是否接管 VIP
故障转移完成
2.4、故障修复步骤:
2.4.1.修复mysql
systemctl restart mysqld
2.4.2.修复主从
在现主库服务器 Mysql2 查看二进制文件和同步点
show master status;
在原主库服务器 mysql1 执行同步操作
change master to
master_host='192.168.41.21',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=2042;
start slave;
2.4.3、在 manager 节点上修改配置文件app1.cnf
(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
vim /etc/masterha/app1.cnf
2.4.4.在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &