基於MGR+Atlas的讀寫分離嘗試,以及MGR+Keepalived+Atlas自動故障轉移+讀寫分離設想

 

目的是嘗試altas的讀寫分離,現有一套搭建好作測試的MGR(單主),因而就腿搓繩,在MGR基礎上搭建altas。html

 

複製環境準備mysql

讀寫分離理論上講,跟複製模式沒有關係,atlas負責的是重定向讀寫,至於複製模式本身選擇,這裏是測試環境,以前測試MGR的單機多實例,MGR單主模式的複製模式,就順便藉助MGR作基於atlas的讀寫分離。sql

 

atlas安裝後端

rpm安裝,瞬間完成服務器

atlas的配置文件(默認/usr/local/mysql_proxy/conf/test.cnf),我的感受是一個很是清爽的配置,基本上配置節點的備註都很是清楚。
由於是單機多實例,這裏僅僅經過不一樣的端口號來區分從庫實例,能夠是單從,也能夠是多從,按照優先級來拆分。負載均衡

#Atlas後端鏈接的MySQL從庫的IP和端口,@後面的數字表明權重,用來做負載均衡,若省略則默認爲1,可設置多項,用逗號分隔
proxy-read-only-backend-addresses = ***.***.***.***:8002@1, ***.***.***.***::8003@2性能

這個節點須要注意的是,對應的用戶名必須在每一個是利用都存在且密碼同樣,不然會出現錯誤測試

#用戶名與其對應的加密過的MySQL密碼,密碼使用PREFIX/bin目錄下的加密程序encrypt加密,下行的user1和user2爲示例,將其替換爲你的MySQL的用戶名和加密密碼!
pwds = username1:DAJnl8cVzy8=, username2:DAJnl8cVzy8=加密

[mysql-proxy]

#帶#號的爲非必需的配置項目

#管理接口的用戶名
admin-username = user

#管理接口的密碼
admin-password = pwd

#Atlas後端鏈接的MySQL主庫的IP和端口,可設置多項,用逗號分隔
proxy-backend-addresses = ***.***.***.***:8001

#Atlas後端鏈接的MySQL從庫的IP和端口,@後面的數字表明權重,用來做負載均衡,若省略則默認爲1,可設置多項,用逗號分隔
proxy-read-only-backend-addresses = proxy-read-only-backend-addresses =***.***.***.***:8002@1,***.***.***.***:8003@2

#用戶名與其對應的加密過的MySQL密碼,密碼使用PREFIX/bin目錄下的加密程序encrypt加密,下行的user1和user2爲示例,將其替換爲你的MySQL的用戶名和加密密碼!
pwds = user1:DAJnl8cVzy8=, user2:DAJnl8cVzy8=

#設置Atlas的運行方式,設爲true時爲守護進程方式,設爲false時爲前臺方式,通常開發調試時設爲false,線上運行時設爲true,true後面不能有空格。
daemon = true

#設置Atlas的運行方式,設爲true時Atlas會啓動兩個進程,一個爲monitor,一個爲worker,monitor在worker意外退出後會自動將其重啓,設爲false時只有worker,沒有monitor,通常開發調試時設爲false,線上運行時設爲true,true後面不能有空格。
keepalive = true

#工做線程數,對Atlas的性能有很大影響,可根據狀況適當設置
event-threads = 8

#日誌級別,分爲message、warning、critical、error、debug五個級別
log-level = message

#日誌存放的路徑
log-path = /usr/local/mysql-proxy/log

#SQL日誌的開關,可設置爲OFF、ON、REALTIME,OFF表明不記錄SQL日誌,ON表明記錄SQL日誌,REALTIME表明記錄SQL日誌且實時寫入磁盤,默認爲OFF
#sql-log = OFF

#慢日誌輸出設置。當設置了該參數時,則日誌只輸出執行時間超過sql-log-slow(單位:ms)的日誌記錄。不設置該參數則輸出所有日誌。
#sql-log-slow = 10

#實例名稱,用於同一臺機器上多個Atlas實例間的區分
#instance = test

#Atlas監聽的工做接口IP和端口
proxy-address = ***.***.***.***:1234

#Atlas監聽的管理接口IP和端口
admin-address = ***.***.***.***:2345

#分表設置,此例中person爲庫名,mt爲表名,id爲分表字段,3爲子表數量,可設置多項,以逗號分隔,若不分表則不須要設置該項
#tables = person.mt.id.3

#默認字符集,設置該項後客戶端再也不須要執行SET NAMES語句
#charset = utf8

#容許鏈接Atlas的客戶端的IP,能夠是精確IP,也能夠是IP段,以逗號分隔,若不設置該項則容許全部IP鏈接,不然只容許列表中的IP鏈接
#client-ips = 127.0.0.1, 192.168.1

#Atlas前面掛接的LVS的物理網卡的IP(注意不是虛IP),如有LVS且設置了client-ips則此項必須設置,不然能夠不設置
#lvs-ips = 192.168.1.1

啓動atlasspa

 

測試讀寫分離

MGR是一主二從,主節點Server_id是8001,從節點的Server_id分別是8002和8003
能夠發現讀信息重定向到8002節點,寫信息重定向到8001節點,實現了讀寫分離

強制關掉一個從節點,將讀重定向到次級讀節點。

讀重定向到8003節點,寫依舊是主節點,MGR狀態也正常,若是嘗試關閉全部的讀節點,讀將自動重定向到主(寫)節點,說明從節點的錯誤都是能夠兼容的。
這一點說明,從(讀)節點的任何錯誤都是不影響atlas對外提供服務器的,若是作到主節點的高可用,atlas就能夠完美地對外提供服務了。

Atlas中間件會自動過濾掉一些危險的操做,好比不帶where條件的delete就沒法執行

尚無進行分表測試。

 

 

遇到的問題:

一開始服務沒法啓動,出現錯誤日誌proxy-plugin.c.1783: I have no server backend, closing connection,是由於配置的user信息在每一個節點不一致致使的。
後來修改pwds 節點的user信息,其中user的新在每個節點都一致,包括用戶名和密碼,服務正常啓動。

 

基於MGR+Keepalived+Atlas的高可用加讀寫分離

後續能夠嘗試,在MGR的基礎上作一個基於keepalived的自動故障轉移,寫節點能夠基於VIP作自動故障轉移,
而後在此基礎上,基於VIP+其餘節點作讀寫分離,理論上能夠完美地實現自動故障轉移的高可用+讀寫分離。
這樣YY起來的話,感受這樣子也略屌,自動故障轉移有了,讀寫分離也有了,理論上,只要有一個存活的節點,均可以正常對外提供服務。

 

 

altas詳細配置參考:http://www.cnblogs.com/yyhh/p/5084844.html

相關文章
相關標籤/搜索