corosync+pacemaker实现高可用(HA)集群(二)
部署方案二(推荐):corosync+pacemaker
利用ansible自动安装corosync和pacemaker
注:关于ansible的具体使用可参见“ansible实现自动化自动化运维”
安装ansible(使用最新版的rpm包安装)
yum --nogpgcheck localinstall ansible-1.5.4-1.el6.noarch.rpm
配置ansible的主机列表
vi /etc/ansible/hosts [hanodes] node1.lamp.com node2.lamp.com
在ansible控制端准备安装所需的文件
mkdir -pv /root/autoinstall_corosync/conf # 内含文件有: authkeys # corosync所需的密钥文件,可通过corosync-keygen命令生成 corosync.conf # corosync的主配置文件 # corosync.conf配置文件 # Please read the corosync.conf.5 manual page compatibility: whitetank totem { version: 2 secauth: on threads: 0 interface { ringnumber: 0 bindnetaddr: 172.16.0.0 # 配置主机网卡所在的网路地址 mcastaddr: 226.0.25.10 # 配置多播地址,防止心跳信息在局域网内混乱传播 mcastport: 5405 # 配置多播地址 ttl: 1 } } logging { # 日志相关的配置 fileline: off to_stderr: no to_logfile: yes # logfile和syslog方式二选一即可 to_syslog: no logfile: /var/log/cluster/corosync.log debug: off timestamp: on logger_subsys { subsys: AMF debug: off } } amf { mode: disabled } service { # 定义一个服务,用以加载pacemaker插件 ver: 0 name: pacemaker } aisexec { # 定义corosync的工作用户 user: root group: root }
mkdir -pv /root/autoinstall_corosync/packages # 内含程序包有: crmsh-1.2.6-4.el6.x86_64.rpm:crmsh配置接口的程序包 pssh-2.3.1-2.el6.x86_64.rpm:并发ssh程序包,crmsh安装所依赖的包
配置corosync安装剧本(corosync.yaml)
vi /root/autoinstall_corosync/corosync.yaml - hosts: hanodesremote_user: rootvars:crmsh: crmsh-1.2.6-4.el6.x86_64.rpmpssh: pssh-2.3.1-2.el6.x86_64.rpmtasks:- name: corosync installingyum: name=corosync state=present- name: pacemaker installingyum: name=pacemaker state=present- name: pcs installingyum: name=pcs state=present- name: crmsh rpm packagescopy: src=/root/autoinstall_corosync/packages/` crmsh ` dest=/tmp/` crmsh `- name: pssh rpm packagescopy: src=/root/autoinstall_corosync/packages/` pssh ` dest=/tmp/` pssh `- name: crmsh installingcommand: yum -y reinstall /tmp/` crmsh ` /tmp/` pssh `- name: authkey configure filecopy: src=/root/autoinstall_corosync/conf/authkey dest=/etc/corosync/authkey- name: authkey mode 400file: path=/etc/corosync/authkey mode=400notify:- restart corosync- name: corosync.conf configure filecopy: src=/root/autoinstall_corosync/conf/corosync.conf dest=/etc/corosync/corosync.conftags:- confnotify:- restart corosync- name: ensure the corosync service startup on bootservice: name=corosync state=started enabled=yeshandlers:- name: restart corosyncservice: name=corosync state=restarted
执行一键安装
ansible-playbook corosync.yaml
crmsh配置接口
crm # 进入crm命令行配置接口 configure # 进入configure模式 property stonith-enabled=false # 因为在实验环境中无stonith设备 property no-quorum-policy=ignore # 在实验的双节点环境中,配置no-quorum-policy为ignore可避免手动测试某节点下线导致整个集群不可用 rsc_defaults resource-stickiness=100 # 设置默认资源黏性值为100 verify # 验证配置是否正确 commit # 提交配置 primitive webip ocf:heartbeat:IPaddr params ip=172.16.25.51 op monitor interval=30s timeout=20s on-fail=restart # 创建资源webip,使用的RA是IPaddr,同时定义监控,检测失败则重启资源 primitive webstore ocf:heartbeat:Filesystem params device="172.16.251.163:/www/phpwind.com" directory="/var/www/html" fstype="nfs" op monitor interval=20s timeout=40s op start timeout=60s op stop timeout=60s on-fail=restart # 创建资源webstore,使用的RA是Filesystem primitive webserver lsb:httpd op monitor interval=30s timeout=40s on-fail=restart # 创建资源webserver,使用的RA是httpd verify commit show # 显示配置结果 show xml # 以xml文件格式显示详细配置信息 edit # 可直接编辑配置文件,修改内容 group webservice webip webstore webserver # 配置资源组webservice verify commit order webip_before_webstore_before_webserver infinity: webip webstore webserver # 定义顺序约束,定义在前面的先确保运行 location webip_prefer_node1 webip inf: node1.lamp.com # 定义位置约束,使得webservice更倾向于运行于node1.lamp.com节点上 # 其它操作 ra # 切换至ra模式 list ocf heartbeat # 查看某类别(ocf heartbeat)下的所有资源代理RA meta ocf:heartbeat:Filesystem # 查看某一具体资源代理RA的可用属性,查找哪些是必须属性 configure # 切换至configure模式 colocation webip_with_webstore_with_webserver inf: webserver webstore webip # 定义排列约束,即各资源都运行在同一个主机上的倾向,这与定义资源组效果相同;定义在最后的资源所在的主机决定排列约束内全部资源所运行的主机 monitor webserver 20s:40s # 单独定义监控资源webserver,间隔时间为20s,超时时间为40s resource # 进入resource模式 cleanup webservice # 清理资源运行过程中的错误状态信息 stop webip # 停止资源 crm status # 显示集群状态信息 crm configure show # 显示集群配置信息 crm node standby node1.lamp.com # 手动将node1由主节点配置为从节点,使资源转移发生 crm node online node1.lamp.com # 手动使node1重新上线
pcs配置接口
# 注:配置后即刻生效,无需手动commit提交 pcs property set stonith-enabled=false # 设置参数属性 pcs property set no-quorum-policy=ignore pcs property set default-resource-stickiness=100 pcs resurce create webip ocf:heartbeat:IPaddr ip=172.16.25.51 op monitor interval=30s timeout=20s# 创建资源webip pcs resource create webstore ocf:heartbeat:Filesystem device="172.16.251.163:/www/phpwind.com" directory="/var/www/html" fstype="nfs" op monitor interval=20s timeout=40s op start timeout=60s op stop timeout=60s on-fail=restart # 创建资源webstore pcs resource create webserver lsb:httpd op monitor interval=30s timeout=20s on-fail=restart # 创建资源webserver pcs resource group add webservice webip webstore webserver # 配置资源组webservice pcs constraint order webip then webstore # 定义顺序约束,只能定义两两的顺序关系 pcs constraint order webstore then webserver pcs constraint location webservice prefers node1.lamp.com=500 # 定义位置约束 pcs status # 查看集群状态 # 其它操作: pcs resource list ocf:heartbeat # 查看某类别(ocf heartbeat)下的所有资源代理RA pcs resource describe ocf:heartbeat:Filesystem # 查看某一具体资源代理RA的可用属性,查找哪些是必须属性 pcs resource group remove webservice webserver # 删除资源组webservice中的webserver资源 pcs resource ungroup webservice # 只删除资源组webservice,并不删除组内的资源 pcs constraint show # 显示全部约束规则 pcs constraint order show # 显示指定(如order)的约束规则 pcs constraint colocation add webstore with webip # 定义排列约束,与资源组效果相同,二者选其一即可 pcs constraint order set webip webstore webserver # 定义顺序约束,可一次指定多个资源 pcs config # 查看当前集群的配置
上一篇:corosync+pacemaker实现高可用(HA)集群(一)
转载于:https://blog.51cto.com/xxrenzhe/1400025
corosync+pacemaker实现高可用(HA)集群(二)相关推荐
- 高可用(HA)集群原理概述
一.高可用集群(High Availability Cluster) 集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源.每一个单个的计算机系统都叫集群节点(node).随着 ...
- mysql keepalived主主同步_KEEPALIVED+MYSQL主主同步=MYSQL高可用(HA)集群
1.这个环境最大的缺陷在于主机写入速度极慢,主键重复. 2.mysql最好采用5.6以上集群版本,5.5以下单线程版本不大适合.博客中的mysql为5.5,实际测试挺差的,换成5.6之后十分完美,请各 ...
- Redis Cluster高可用(HA)集群环境搭建详细步骤
1.为什么要有集群 由于Redis主从复制架构每个数据库都要保存整个集群中的所有数据,容易形成木桶效应,所以Redis3.0之后的版本添加特性就是集群(Cluster) 2.Redis集群架构说明 架 ...
- Hadoop分布式高可用HA集群搭建笔记(含Hive之构建),java高级架构师视频
| HOSTNAME | IP | 操作系统 | | - | - | - | | masterndoe | 192.168.122.128 | Manjaro 20.1 | | slavenode1 ...
- Hadoop分布式高可用HA集群搭建笔记(含Hive之构建),java类加载过程面试题
[]( )1.2.4 修改主机名 修改三台机器的/etc/hosts文件 加入如下内容.为了等下能在物理主机上访问HDFS web管理工具.还需要在本地进行该映射.不过在Windows下,要修改的是C ...
- Ceph RGW高可用HA集群keepalived+Haproxy
部署了入口服务的主机有 N 个.每个主机都有一个 haproxy 守护进程和一个 keepalived 守护进程.一次仅在其中一台主机上自动配置虚拟 IP. 每个keepalived 守护进程每隔几秒 ...
- ldirectord实现高可用负载集群
上一篇博客在整合HA和LB实现高可用负载集群的时候,有的是脚本实现两个HA之间的资源转移,这一个使用的是ldirectord来实现的,这就简化了配置,接下来就做具体的配置了,拓扑图依然如上篇博客< ...
- 使用rancher rke2配置高可用k8s集群
使用rancher rke2配置高可用k8s集群 1. 前言 1.1 官方介绍 1.2 说明 2. 主机环境准备 2.1 主机初始化 2.3 系统参数设置 2.4 NetworkManager设置 2 ...
- 高可用NAS集群技术
高可用NAS集群技术 目录 高可用NAS集群技术 一.前言 二.集群NAS的介绍 (一)什么是集群NAS (二)集群NAS的主流架构 (三)集群NAS的分类 三.集群存储高可用技术 (一)什么是集群高 ...
最新文章
- 企业为什么要开通银企直联_企业为什么要把人事外包出去
- Python代码块批量添加Tab缩进
- linux crontab环境变量,Linux下crontab内环境变量与Shell环境变量的关系【转】
- 如何隐藏你的 Linux 的命令行历史
- Sql server时间转时间long
- python if 跳出_Python保留字简单释义
- 前端学习(2310):数据请求和json-server
- (14) ZYNQ AXI4-Lite总线简介(学无止境)
- BigDecimal用法介绍
- 6.面向对象的三大特征
- JavaScript实现(轮播图,随机数,抽名字游戏,广告循环文字)
- dynamipsGUI+VMware
- xshell如何登陆数据库_Xshell怎么连接数据库?
- STorM32三轴云台控制器PID参数调节(1)
- 树莓派串口/RS485通信
- 陈年老调-log4j(分环境配置+动态修改)
- 【已解决】Android Studio下,gradle project sync failed 错误
- 黑白照片修复彩色软件免费有哪些?分享这三个实用的软件给你
- 2019-CS224N-Assignment 1: Exploring Word Vectors
- 未能加载文件或程序集 Renci.SshNet, Version=2016.1.0.0, Culture=neutral, PublicKeyToken= 1cee9f8bde3db106或它的某
热门文章
- [Gamma阶段]第十次Scrum Meeting
- 自顶而下系统构架分析
- [No000066]python各种类型转换-int,str,char,float,ord,hex,oct等
- [jobdu]调整数组顺序使奇数位于偶数前面
- APACHE多个服务器的配置
- Linux中配置bochs
- php defer,PHP 协程:Go + Chan + Defer
- 强化学习ppt_机器学习原理、算法与应用配套PPT第四部分(深度学习概论、自动编码器、强化学习、聚类算法、半监督学习等)...
- simplexmlelement类设置编码_「软帝学院」:2019java五大常用工具类整理
- id ajax,AJAX_ajax.js里面有内容显示效果,根据ID,ajax.js里面有内容显示效果,根 - phpStudy...