keepalived介紹
keepalived觀察其名可知,保持存活,在網絡裏面就是保持在線了,也就是所謂的高可用或熱備,它集羣管理中保證集羣高可用的一個服務軟件,其功能相似於heartbeat,用來防止單點故障(單點故障是指一旦某一點出現故障就會致使整個系統架構的不可用)的發生。說到keepalived就不得不說VRRP協議,能夠說這個協議就是keepalived實現的基礎,那麼首先咱們來看看VRRP協議。html
VRRP協議介紹
學過網絡的朋友都知道,網絡在設計的時候必須考慮到冗餘容災,包括線路冗餘,設備冗餘等,防止網絡存在單點故障,那在路由器或三層交換機處實現冗餘就顯得尤其重要。
在網絡裏面有個協議就是來作這事的,這個協議就是VRRP協議,Keepalived就是巧用VRRP協議來實現高可用性(HA)的發生。
VRRP全稱Virtual Router Redundancy Protocol,即虛擬路由冗餘協議。對於VRRP,須要清楚知道的是:
1)VRRP是用來實現路由器冗餘的協議。
2)VRRP協議是爲了消除在靜態缺省路由環境下路由器單點故障引發的網絡失效而設計的主備模式的協議,使得發生故障而進行設計設備功能切換時能夠不影響內外數據通訊,不須要再修改內部網絡的網絡參數。
3)VRRP協議須要具備IP備份,優先路由選擇,減小沒必要要的路由器通訊等功能。
4)VRRP協議將兩臺或多臺路由器設備虛擬成一個設備,對外提供虛擬路由器IP(一個或多個)。然而,在路由器組內部,若是實際擁有這個對外IP的路由器若是工做正常的話,就是master,或者是經過算法選舉產生的,MASTER實現針對虛擬路由器IP的各類網絡功能,如ARP請求,ICMP,以及數據的轉發等,其餘設備不具備該IP,狀態是BACKUP。除了接收MASTER的VRRP狀態通告信息外,不執行對外的網絡功能,當主級失效時,BACKUP將接管原先MASTER的網絡功能。
5)VRRP協議配置時,須要配置每一個路由器的虛擬路由ID(VRID)和優先權值,使用VRID將路由器進行分組,具備相同VRID值的路由器爲同一個組,VRID是一個0-255的整整數,;同一個組中的路由器經過使用優先權值來選舉MASTER。,優先權大者爲MASTER,優先權也是一個0-255的正整數。node
keepalived工做原理
keepalived可提供vrrp以及health-check功能,能夠只用它提供雙機浮動的vip(vrrp虛擬路由功能),這樣能夠簡單實現一個雙機熱備高可用功能;keepalived是以VRRP虛擬路由冗餘協議爲基礎實現高可用的,能夠認爲是實現路由器高可用的協議,即將N臺提供相同功能的路由器組成一個路由器組,這個組裏面有一個master和多個backup,master上面有一個對外提供服務的vip(該路由器所在局域網內其餘機器的默認路由爲該vip),master會發組播,當backup收不到VRRP包時就認爲master宕掉了,這時就須要根據VRRP的優先級來選舉一個backup當master。這樣的話就能夠保證路由器的高可用了。mysql
下圖是keepalived的組件圖nginx
keepalived也是模塊化設計,不一樣模塊複雜不一樣的功能,它主要有三個模塊,分別是core、check和VRRP,其中:
core模塊:爲keepalived的核心組件,負責主進程的啓動、維護以及全局配置文件的加載和解析;
check:負責健康檢查,包括常見的各類檢查方式;
VRRP模塊:是來實現VRRP協議的。web
system call:系統調用
watch dog:監控check和vrrp進程的看管者,check負責檢測器子進程的健康狀態,當其檢測到master上的服務不可用時則通告vrrp將其轉移至backup服務器上。算法
除此以外,keepalived還有下面兩個組件:
libipfwc:iptables(ipchains)庫,配置LVS會用到
libipvs*:配置LVS會用到
注意,keepalived和LVS徹底是兩碼事,只不過他們各負其責相互配合而已。sql
keepalived正常啓動的時候,共啓動3個進程:
一個是父進程,負責監控其子進程;一個是VRRP子進程,另一個是checkers子進程;
兩個子進程都被系統watchlog看管,兩個子進程各自負責複雜本身的事。
Healthcheck子進程檢查各自服務器的健康情況,,例如http,lvs。若是healthchecks進程檢查到master上服務不可用了,就會通知本機上的VRRP子進程,讓他刪除通告,而且去掉虛擬IP,轉換爲BACKUP狀態。apache
Keepalived做用
Keepalived主要用做RealServer的健康狀態檢查以及LoadBalance主機和BackUP主機之間failover的實現。Keepalived的做用是檢測web服務器的狀態,若是有一臺web服務器死機,或工做出現故障,Keepalived將檢測到,並將有故障的web服務器從系統中剔除,當web服務器工做正常後Keepalived自動將web服務器加入到服務器羣中,這些工做所有自動完成,不須要人工干涉,須要人工作的只是修復故障的web服務器。vim
----------------------------------------------------------------------------------------------------------------------------
Keepalived和Heartbeat之間的對比
1)Keepalived使用更簡單:從安裝、配置、使用、維護等角度上對比,Keepalived都比Heartbeat要簡單得多,尤爲是Heartbeat2.1.4後拆分紅3個子項目,安裝、配置、使用都比較複雜,尤爲是出問題的時候,都不知道具體是哪一個子系統出問題了;而Keepalived只有1個安裝文件、1個配置文件,配置文件也簡單不少;
2)Heartbeat功能更強大:Heartbeat雖然複雜,但功能更強大,配套工具更全,適合作大型集羣管理,而Keepalived主要用於集羣倒換,基本沒有管理功能;
3)協議不一樣:Keepalived使用VRRP協議進行通訊和選舉,Heartbeat使用心跳進行通訊和選舉;Heartbeat除了走網絡外,還能夠經過串口通訊,貌似更可靠;
Keepalived使用的vrrp協議方式,虛擬路由冗餘協議 ;Heartbeat是基於主機或網絡的服務的高可用方式;
Keepalived的目的是模擬路由器的雙機;Heartbeat的目的是用戶service的雙機
4)使用方式基本相似:若是要基於二者設計高可用方案,最終都要根據業務須要寫自定義的腳本,Keepalived的腳本沒有任何約束,隨便怎麼寫均可以;Heartbeat的腳本有約束,即要支持service start/stop/restart這種方式,並且Heartbeart提供了不少默認腳本,簡單的綁定ip,啓動apache等操做都已經有了;後端
使用建議:
優先使用Keepalived,當Keepalived不夠用的時候才選擇Heartbeat
lvs的高可用建議用Keepavlived
業務的高可用用Heartbeat
--------------------------------------------------------------------------------------------------------------------------
keepalived的配置文件
keepalived只有一個配置文件keepalived.conf,配置文件裏面主要包括如下幾個配置項,分別是global_defs、static_ipaddress、static_routes、VRRP_script、VRRP_instance和virtual_server。
總的來講,keepalived主要有三類區域配置,注意不是三種配置文件,是一個配置文件裏面三種不一樣類別的配置區域:
1)全局配置(Global Configuration)
2)VRRPD配置
3)LVS配置
下面就重點來講說這三類區域的配置:
1)全局配置
全局配置又包括兩個子配置:
全局定義(global definition)
靜態路由配置(static ipaddress/routes)
1--全局定義(global definition)配置範例:
global_defs { notification_email { admin@example.com } notification_email_from admin@example.com smtp_server 127.0.0.1 stmp_connect_timeout 30 router_id node1 }
全局配置解析
global_defs全局配置標識,表面這個區域{}是全局配置
notification_email { admin@example.com admin@ywlm.net }
表示keepalived在發生諸如切換操做時須要發送email通知,以及email發送給哪些郵件地址,郵件地址能夠多個,每行一個
notification_email_from admin@example.com
表示發送通知郵件時郵件源地址是誰
smtp_server 127.0.0.1
表示發送email時使用的smtp服務器地址,這裏能夠用本地的sendmail來實現
smtp_connect_timeout 30
鏈接smtp鏈接超時時間
router_id node1
機器標識
2--靜態地址和路由配置範例
static_ipaddress { 192.168.1.1/24 brd + dev eth0 scope global 192.168.1.2/24 brd + dev eth1 scope global } static_routes { src $SRC_IP to $DST_IP dev $SRC_DEVICE src $SRC_IP to $DST_IP via $GW dev $SRC_DEVICE }
這裏實際上和系統裏面用命令配置IP地址和路由的曹同樣,例如:
192.168.1.1/24 brd + dev eth0 scope global 至關於: ip addr add 192.168.1.1/24 brd + dev eth0 scope global
就是給eth0配置IP地址
路由同理
通常這個區域不須要配置
這裏實際上就是給服務器配置真實的IP地址和路由的,在複雜的環境下可能須要配置,通常不會用這個來配置,咱們能夠直接用vi /etc/sysconfig/network-script/ifcfg-eth1來配置,切記這裏可不是VIP哦,不要搞混淆了,切記切記!
2)VRRPD配置
VRRPD配置包括三個類:
VRRP同步組(synchroization group)
VRRP實例(VRRP Instance)
VRRP腳本
1--VRRP同步組(synchroization group)配置範例
vrrp_sync_group VG_1 { group { http mysql } notify_master /path/to/to_master.sh notify_backup /path_to/to_backup.sh notify_fault 「/path/fault.sh VG_1」 notify /path/to/notify.sh smtp_alert }
其中:
group {
http
mysql
}
http和mysql是實例名和下面的實例名一致
notify_master /path/to/to_master.sh:表示當切換到master狀態時,要執行的腳本
notify_backup /path_to/to_backup.sh:表示當切換到backup狀態時,要執行的腳本
notify_fault 「/path/fault.sh VG_1」
notify /path/to/notify.sh:
smtp alter表示切換時給global defs中定義的郵件地址發送右鍵通知
2--VRRP實例(instance)配置範例
vrrp_instance http { state MASTER interface eth0 dont_track_primary track_interface { eth0 eth1 } mcast_src_ip <IPADDR> garp_master_delay 10 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS autp_pass 1234 } virtual_ipaddress { #<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPT> label <LABEL> 192.168.200.17/24 dev eth1 192.168.200.18/24 dev eth2 label eth2:1 } virtual_routes { # src <IPADDR> [to] <IPADDR>/<MASK> via|gw <IPADDR> dev <STRING> scope <SCOPE> tab src 192.168.100.1 to 192.168.109.0/24 via 192.168.200.254 dev eth1 192.168.110.0/24 via 192.168.200.254 dev eth1 192.168.111.0/24 dev eth2 192.168.112.0/24 via 192.168.100.254 } nopreempt preemtp_delay 300 debug }
state:state指定instance(Initial)的初始狀態,就是說在配置好後,這臺服務器的初始狀態就是這裏指定的,但這裏指定的不算,仍是得要經過競選經過優先級來肯定,裏若是這裏設置爲master,但如若他的優先級不及另一臺,那麼這臺在發送通告時,會發送本身的優先級,另一臺發現優先級不如本身的高,那麼他會就回搶佔爲master
interface:實例綁定的網卡,由於在配置虛擬IP的時候必須是在已有的網卡上添加的
dont track primary:忽略VRRP的interface錯誤
track interface:跟蹤接口,設置額外的監控,裏面任意一塊網卡出現問題,都會進入故障(FAULT)狀態,例如,用nginx作均衡器的時候,內網必須正常工做,若是內網出問題了,這個均衡器也就沒法運做了,因此必須對內外網同時作健康檢查
mcast src ip:發送多播數據包時的源IP地址,這裏注意了,這裏實際上就是在那個地址上發送VRRP通告,這個很是重要,必定要選擇穩定的網卡端口來發送,這裏至關於heartbeat的心跳端口,若是沒有設置那麼就用默認的綁定的網卡的IP,也就是interface指定的IP地址
garp master delay:在切換到master狀態後,延遲進行免費的ARP(gratuitous ARP)請求
virtual router id:這裏設置VRID,這裏很是重要,相同的VRID爲一個組,他將決定多播的MAC地址
priority 100:設置本節點的優先級,優先級高的爲master
advert int:檢查間隔,默認爲1秒
virtual ipaddress:這裏設置的就是VIP,也就是虛擬IP地址,他隨着state的變化而增長刪除,當state爲master的時候就添加,當state爲backup的時候刪除,這裏主要是有優先級來決定的,和state設置的值沒有多大關係,這裏能夠設置多個IP地址
virtual routes:原理和virtual ipaddress同樣,只不過這裏是增長和刪除路由
lvs sync daemon interface:lvs syncd綁定的網卡
authentication:這裏設置認證
auth type:認證方式,能夠是PASS或AH兩種認證方式
auth pass:認證密碼
nopreempt:設置不搶佔,這裏只能設置在state爲backup的節點上,並且這個節點的優先級必須別另外的高
preempt delay:搶佔延遲
debug:debug級別
notify master:和sync group這裏設置的含義同樣,能夠單獨設置,例如不一樣的實例通知不一樣的管理人員,http實例發給網站管理員,mysql的就發郵件給DBA
3--VRRP腳本範例
vrrp_script check_running { script 「/usr/local/bin/check_running」 interval 10 weight 10 } vrrp_instance http { state BACKUP smtp_alert interface eth0 virtual_router_id 101 priority 90 advert_int 3 authentication { auth_type PASS auth_pass whatever } virtual_ipaddress { 1.1.1.1 } track_script { check_running weight 20 } }
首先在vrrp_script區域定義腳本名字和腳本執行的間隔和腳本執行的優先級變動vrrp_script check_running {
script 「/usr/local/bin/check_running」 interval 10 #腳本執行間隔 weight 10 #腳本結果致使的優先級變動:10表示優先級+10;-10則表示優先級-10 }
而後在實例(vrrp_instance)裏面引用,有點相似腳本里面的函數引用同樣:先定義,後引用函數名
track_script { check_running weight 20 }
注意:VRRP腳本(vrrp_script)和VRRP實例(vrrp_instance)屬於同一個級別
3)LVS配置
若是你沒有配置LVS+keepalived,那麼無需配置這段區域,若是你用的是nginx來代替LVS,這無需配置這款,這裏的LVS配置是專門爲keepalived+LVS集成準備的。
注意了,這裏LVS配置並非指真的安裝LVS而後用ipvsadm來配置它,而是用keepalived的配置文件來代替ipvsadm來配置LVS,這樣會方便不少,一個配置文件搞定這些,維護方便,配置方即是也!
這裏LVS配置也有兩個配置
一個是虛擬主機組配置
一個是虛擬主機配置
1--虛擬主機組配置文件詳解
這個配置是可選的,根據需求來配置吧,這裏配置主要是爲了讓一臺realserver上的某個服務能夠屬於多個Virtual Server,而且只作一次健康檢查:
virtual_server_group <STRING> { # VIP port <IPADDR> <PORT> <IPADDR> <PORT> fwmark <INT> }
2--虛擬主機配置
virtual server能夠如下面三種的任意一種來配置:
a)virtual server IP port
b)virtual server fwmark int
c)virtual server group string
下面以第一種比較經常使用的方式來配詳細解說一下:
virtual_server 192.168.1.2 80 { #設置一個virtual server: VIP:Vport delay_loop 3 # service polling的delay時間,即服務輪詢的時間間隔 lb_algo rr|wrr|lc|wlc|lblc|sh|dh #LVS調度算法 lb_kind NAT|DR|TUN #LVS集羣模式 persistence_timeout 120 #會話保持時間(秒爲單位),即以用戶在120秒內被分配到同一個後端realserver persistence_granularity <NETMASK> #LVS會話保持粒度,ipvsadm中的-M參數,默認是0xffffffff,即每一個客戶端都作會話保持 protocol TCP #健康檢查用的是TCP仍是UDP ha_suspend #suspendhealthchecker’s activity virtualhost <string> #HTTP_GET作健康檢查時,檢查的web服務器的虛擬主機(即host:頭) sorry_server <IPADDR> <PORT> #備用機,就是當全部後端realserver節點都不可用時,就用這裏設置的,也就是臨時把全部的請求都發送到這裏啦 real_server <IPADDR> <PORT> #後端真實節點主機的權重等設置,主要,後端有幾臺這裏就要設置幾個 { weight 1 #給每臺的權重,0表示失效(不知給他轉發請求知道他恢復正常),默認是1 inhibit_on_failure #表示在節點失敗後,把他權重設置成0,而不是衝IPVS中刪除 notify_up <STRING> | <QUOTED-STRING> #檢查服務器正常(UP)後,要執行的腳本 notify_down <STRING> | <QUOTED-STRING> #檢查服務器失敗(down)後,要執行的腳本 HTTP_GET #健康檢查方式 { url { #要堅持的URL,能夠有多個 path / #具體路徑 digest <STRING> status_code 200 #返回狀態碼 } connect_port 80 #監控檢查的端口 bindto <IPADD> #健康檢查的IP地址 connect_timeout 3 #鏈接超時時間 nb_get_retry 3 #重連次數 delay_before_retry 2 #重連間隔 } # END OF HTTP_GET|SSL_GET #下面是經常使用的健康檢查方式,健康檢查方式一共有HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK這些 #TCP方式 TCP_CHECK { connect_port 80 bindto 192.168.1.1 connect_timeout 4 } # TCP_CHECK # SMTP方式,這個能夠用來給郵件服務器作集羣 SMTP_CHECK host { connect_ip <IP ADDRESS> connect_port <PORT> #默認檢查25端口 14 KEEPALIVED bindto <IP ADDRESS> } connect_timeout <INTEGER> retry <INTEGER> delay_before_retry <INTEGER> # 「smtp HELO」ž|·-ë꧌à」 helo_name <STRING>|<QUOTED-STRING> } #SMTP_CHECK #MISC方式,這個能夠用來檢查不少服務器只須要本身會些腳本便可 MISC_CHECK { misc_path <STRING>|<QUOTED-STRING> #外部程序或腳本 misc_timeout <INT> #腳本或程序執行超時時間 misc_dynamic #這個就很好用了,能夠很是精確的來調整權重,是後端天天服務器的壓力都能均衡調配,這個主要是經過執行的程序或腳本返回的狀態代碼來動態調整weight值,使權重根據真實的後端壓力來適當調整,不過這須要有過硬的腳本功夫才行哦 #返回0:健康檢查沒問題,不修改權重 #返回1:健康檢查失敗,權重設置爲0 #返回2-255:健康檢查沒問題,可是權重卻要根據返回代碼修改成返回碼-2,例如若是程序或腳本執行後返回的代碼爲200,#那麼權重這回被修改成 200-2 } } # Realserver } # Virtual Server
================================小案例 分享=============================
172.16.60.205 做爲web-master主節點, 172.16.60.206 做爲web-slave從節點, 兩節點上都部署nginx. 如今在兩節點上部署keepalived, 只作節點故障時vip轉移功能, 不作負載均衡功能. vip爲: 172.16.60.129 1) 主從兩節點部署nginx, 安裝和配置過程省略. 配置同樣, 訪問內容一致! yum安裝的nginx, 啓動命令: /etc/init.d/nginx start http://172.16.60.205/ 和 http://172.16.60.205/ 都可以正常訪問. 2) 主從兩節點安裝keepalived (兩個節點都要安裝) [root@web-master ~]# yum install -y openssl-devel [root@web-master ~]# cd /usr/local/src/ [root@web-master src]# wget http://www.keepalived.org/software/keepalived-1.3.5.tar.gz [root@web-master src]# tar -zvxf keepalived-1.3.5.tar.gz [root@web-master src]# cd keepalived-1.3.5 [root@web-master keepalived-1.3.5]# ./configure --prefix=/usr/local/keepalived [root@web-master keepalived-1.3.5]# make && make install [root@web-master keepalived-1.3.5]# cp /usr/local/src/keepalived-1.3.5/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/ [root@web-master keepalived-1.3.5]# mkdir /etc/keepalived/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/ [root@web-master keepalived-1.3.5]# echo "/etc/init.d/keepalived start" >> /etc/rc.local [root@web-master keepalived-1.3.5]# chmod +x /etc/rc.d/init.d/keepalived [root@web-master keepalived-1.3.5]# chkconfig keepalived on 3) keepalived配置 ==========web-master 主節點的配置========== [root@web-master ~]# cd /etc/keepalived/ [root@web-master keepalived]# cp keepalived.conf keepalived.conf.bak [root@web-master keepalived]# >keepalived.conf [root@web-master keepalived]# vim keepalived.conf ! Configuration File for keepalived global_defs { router_id LVS_Master } vrrp_instance VI_1 { state MASTER #指定instance初始狀態,實際根據優先級決定.backup節點不同 interface eth0 #虛擬IP所在網 virtual_router_id 51 #VRID,相同VRID爲一個組,決定多播MAC地址 priority 100 #優先級,另外一臺改成90.backup節點不同 advert_int 1 #檢查間隔 authentication { auth_type PASS #認證方式,能夠是pass或ha auth_pass 1111 #認證密碼 } virtual_ipaddress { 172.16.60.129 #VIP地址 } } ==========web-slave 從節點的配置========== [root@web-slave ~]# cd /etc/keepalived/ [root@web-slave keepalived]# cp keepalived.conf keepalived.conf.bak [root@web-slave keepalived]# >keepalived.conf [root@web-slave keepalived]# vim keepalived.conf ! Configuration File for keepalived global_defs { router_id LVS_Backup } vrrp_instance VI_1 { state BACKUP interface eth0 virtual_router_id 51 priority 90 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 172.16.60.129 } } 4) 分別啓動主從節點的keepalived服務 啓動主節點keepalived服務 [root@web-master keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-master keepalived]# ps -ef|grep keepalived root 13529 1 0 16:36 ? 00:00:00 keepalived -D root 13530 13529 0 16:36 ? 00:00:00 keepalived -D root 13532 13529 0 16:36 ? 00:00:00 keepalived -D root 13536 9799 0 16:36 pts/1 00:00:00 grep keepalived 啓動從節點keepalived服務 [root@web-slave keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-slave keepalived]# ps -ef|grep keepalived root 3120 1 0 16:37 ? 00:00:00 keepalived -D root 3121 3120 0 16:37 ? 00:00:00 keepalived -D root 3123 3120 0 16:37 ? 00:00:00 keepalived -D root 3128 27457 0 16:37 pts/2 00:00:00 grep keepalived 查看vip資源狀況 (默認vip是在主節點上的) [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 從節點沒有vip資源 [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 5) keepalived 實現故障轉移 (轉移vip資源) 假設主節點宕機或keepalived服務掛掉, 則vip資源就會自動轉移到從節點 [root@web-master keepalived]# /etc/init.d/keepalived stop Stopping keepalived: [ OK ] [root@web-master keepalived]# ps -ef|grep keepalived root 13566 9799 0 16:40 pts/1 00:00:00 grep keepalived [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 則從節點這邊就會接管vip [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 接着再重啓主節點的keepalived服務, 即主節點故障恢復後, 就會從新搶回vip (根據配置裏的優先級決定的) [root@web-master keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 這時候, 從節點的vip就消失了 [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 以上操做, keepalived僅僅實現了兩臺機器的vip的故障轉移功能, 即實現了雙機熱備, 避免了單點故障. 即keepalived配置裏僅僅只是在宕機(或keepalived服務掛掉)後才實現vip轉移, 並無實現所監控應用故障時的vip轉移. 好比案例中兩臺機器的nginx, 能夠監控nginx, 當nginx掛掉後,實現自啓動, 若是強啓失敗, 則將vip轉移到對方節點. 這種狀況的配置能夠參考另外一篇博文: https://www.cnblogs.com/kevingrace/p/6138185.html
============下面是曾經使用過的一個案例: 三臺節點機器,配置三個VIP,實行相互之間的"兩主兩從"模式=============
server1:第一臺節點的keepalived.conf配置. 其中VIP:192.168.20.187 [root@keepalived-node01 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #局域網中須要共享該vip的服務器,該配置要一致 vrrp_skip_check_adv_addr vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state MASTER #狀態爲master,代表 keepalived 啓動後會搶佔IP, 但,下面的優先級值201要高於 從庫的優先級 101 interface eth0 #viP 綁定的網卡 virtual_router_id 191 #這個組隊標誌,同一個vrrp 下的 值一致,主從一致 priority 201 # 主庫爲201,高於從庫101 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.20.187 #這是VIP 值 } } vrrp_instance VI_2 { state BACKUP #狀態爲 BACKUP,代表 keepalived 啓動後不搶佔IP interface eth0 #VIP 綁定的接口 virtual_router_id 193 #組隊標識,同一個vrrp 下的值一致 priority 101 #設置優先級小於另外一個節點的priority 上值。 advert_int 1 authentication { auth_type PASS auth_pass 3333 } virtual_ipaddress { 192.168.20.189 } } 啓動keepalived [root@keepalived-node01 ~]# /etc/init.d/keepalived start [root@keepalived-node01 ~]# ps -ef|grep keepalived root 13746 1 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 13747 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 13748 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 14089 13983 0 16:36 pts/1 00:00:00 grep --color=auto keepalived 啓動keepalived服務後,查看ip [root@keepalived-node01 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 2e:ab:68:68:ee:90 brd ff:ff:ff:ff:ff:ff inet 192.168.20.191/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.187/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::2cab:68ff:fe68:ee90/64 scope link valid_lft forever preferred_lft forever ========================================================================================== server2:第二臺節點的keepalived.conf配置. 其中VIP:192.168.20.188 [root@keepalived-node02 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #局域網中須要共享該vip的服務器,該配置要一致 vrrp_skip_check_adv_addr vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state MASTER #狀態爲master,代表 keepalived 啓動後會搶佔IP, 但,下面的優先級值201要高於 從庫的優先級 101 interface eth0 #viP 綁定的網卡 virtual_router_id 192 #這個組隊標誌,同一個vrrp 下的 值一致,主從一致 priority 201 # 主庫爲201,高於從庫101 advert_int 1 authentication { auth_type PASS auth_pass 2222 } virtual_ipaddress { 192.168.20.188 #這是VIP 值 } } vrrp_instance VI_2 { state BACKUP #狀態爲 BACKUP,代表 keepalived 啓動後不搶佔IP interface eth0 #VIP 綁定的接口 virtual_router_id 191 #組隊標識,同一個vrrp 下的值一致 priority 101 #設置優先級小於另外一個節點的priority 上值。 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.20.187 } } 啓動keepalived [root@keepalived-node02 ~]# /etc/init.d/keepalived start [root@keepalived-node02 ~]# ps -ef|grep keepalived root 13327 1 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13328 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13329 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13570 13529 0 16:39 pts/1 00:00:00 grep --color=auto keepalived 啓動keepalived服務後查看ip [root@keepalived-node02 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 76:6d:74:97:03:15 brd ff:ff:ff:ff:ff:ff inet 192.168.20.192/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.188/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::746d:74ff:fe97:315/64 scope link valid_lft forever preferred_lft forever ========================================================================================== server3:第三臺節點的keepalived.conf配置. 其中VIP:192.168.20.189 [root@keepalived-node03 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #和server1 一致全局惟一 vrrp_skip_check_adv_addr # vrrp_strict vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state BACKUP #主是master,從就是backup interface eth0 virtual_router_id 192 # 組隊標識,同一個vrrp 下一致 priority 101 #優先級也變小 advert_int 1 authentication { auth_type PASS auth_pass 2222 } virtual_ipaddress { 192.168.20.188 } } vrrp_instance VI_2 { state MASTER #主變成MASTER interface eth0 #綁定網卡 virtual_router_id 193 #組隊標誌,同一個vip 下一致 priority 201 #優先級提高 advert_int 1 authentication { auth_type PASS auth_pass 3333 } virtual_ipaddress { 192.168.20.189 } } 啓動keepalived [root@keepalived-node03 ~]# /etc/init.d/keepalived start [root@keepalived-node03 ~]# ps -ef|grep keepalived root 13134 1 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13135 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13136 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13526 13460 0 16:41 pts/1 00:00:00 grep --color=auto keepalived 啓動keepalived服務後查看ip [root@keepalived-node03 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 22:ee:46:41:f0:e6 brd ff:ff:ff:ff:ff:ff inet 192.168.20.193/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.189/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::20ee:46ff:fe41:f0e6/64 scope link valid_lft forever preferred_lft forever 舒適提示: 如上,keepalived.conf配置後,重啓keepalived服務,重啓成功而且vip地址已經有了,可是死活ping不通vip地址!! 這是由於keepalived.conf文件中的vrrp_strict參數引發的,將該參數註釋掉就能夠了!!! vrrp_strict 表示嚴格執行VRRP協議規範,此模式不支持節點單播
VIP地址ping不通,須要註釋vrrp_strict參數配置便可!