MySQL+MMM 高可用集羣部署(二)

接上期,MySQL主從同步咱們已經部署完成,接下來,咱們開始部署本期的核心---MMM高可用集羣mysql


4、MMM高可用集羣部署c++

    一、安裝依賴包web

    因爲mmm 是用perl語言寫的腳本程序,所以須要在5臺服務器中分別安裝 perl 和 perl-CPANsql

    [root@cluster-mysqlb ~]# yum -y install perl perl-CPANshell

    二、yum 安裝 mmm數據庫

        a、在4臺 MySQL 服務器中安裝 mysql-mmm-agentvim

        [root@cluster-mysqla ~]# yum -y install gcc gcc-c++ mysql-mmm-agent服務器

        b、在 monitor 服務器中安裝 mysql-mmm-monitor網絡

        [root@cluster-proxy ~]# yum -y install gcc gcc-c++ mysql-mmm-monitorapp

    三、配置 mmm

        mysql-mmm 的配置文件在 /etc/mysql-mmm目錄下,進入該目錄

        mysql-mmm-agent 配置文件

        圖片.png

        mysql-mmm-monitor 配置文件

        圖片.png

        如圖,mysql-mmm-agent 的配置文件只有2個,mmm_agent.conf 和 mmm_common.conf,而 mysql-mmm-monitor 的配置文件有4個,本來是3個,由於我這裏安裝了 mysql-mmm-tools ,所以多了一個mmm_tools.conf

        a、修改公共配置文件 mmm_common.conf

        [root@cluster-mysqla mysql-mmm]# vim mmm_common.conf

        圖片.png

        如圖:

        (1)、字段解釋

            active_master_role      writer                                           #主動的master角色標示,全部數據庫服務器都須要開啓 read_only 參數,而對於 Write 服務器,監控服務器會自動將 read_only 屬性關閉,也就是將其值設爲1

            <host default>
            cluster_interface       eth0                                               #集羣網絡接口
            pid_path                /run/mysql-mmm-agent.pid            #mmm-agent進程pid文件路徑
            bin_path                /usr/libexec/mysql-mmm/               #可執行文件路徑
            replication_user        slaveuser                                       #複製用戶
            replication_password    123456                                      #複製用戶的密碼
            agent_user              mmmagent                                     #代理用戶
            agent_password          123456                                       #代理用戶的密碼
            </host>

            <host mastera>                                                              #這裏寫 mastera 的主機名
            ip      192.168.20.134                                                       #mastera 的 IP 地址
            mode    master                                                                #角色模式:master   表示主庫
            peer    masterb                                                                #與 mastera 同等的主庫的主機名稱,也就是說向 mastera 同步數據的數據庫的主機的名稱,所以爲 masterb
            </host>

            <host masterb>                                                              #這裏的屬性同 mastera
            ip      192.168.20.128
            mode    master
            peer    mastera
            </host>

            <host slavea>                                                                  #從庫的主機名稱
            ip      192.168.20.129                                                        #從庫的 IP 地址
            mode    slave                                                                    #角色模式:該主機爲 masterb 的從數據庫,所以爲 slave
            </host>

            <host slaveb>                                                                  #這裏的屬性同 slavea
            mode    slave
            </host>

            <role writer>                                                                    #Write 角色配置
            hosts   mastera, masterb  #具備寫操做的主機名稱,這裏的配置能夠寫單個,也能夠寫多個,寫單個的時候,能夠避免在網絡延遲過大時切換Write,可是當master出現故障時,就沒法進行write了,只能對外提供read操做了
            ips     192.168.20.254                                           #對外提供寫操做的虛擬 IP 地址
            mode    exclusive                                                 #模式,exclusive 表示只容許存在一個主數據庫,也就是隻能寫 一個虛擬 IP 地址
            </role>

            <role reader>                                                                    #read 角色配置
            hosts   slavea, slaveb                                                         #對外提供 read 操做的服務器的主機的名稱,這裏也能夠寫master進來,寫進來時,master也對外提供 read 操做
            ips     192.168.20.253, 192.168.20.252                               #對外提供 read 操做的虛擬 IP 地址,爲了實現負載均衡,這裏的虛擬 IP 地址至少應該和 read 數據庫服務器數量相同
            mode    balanced                                                               #模式,balanced 表示負載均衡
            </role>

        (2)、mmm_common.conf配置文件修改

                若是在服務器中有多張網卡,則須要在 cluster_interface 字段中指定網卡名稱

                按照上面的格式修改公共配置文件,修改完後複製到其餘4臺服務器中

                scp /etc/mysql-mmm/mmm_common.conf root@192.168.20.128:/etc/mysql-mmm

                scp /etc/mysql-mmm/mmm_common.conf root@192.168.20.129:/etc/mysql-mmm

                scp /etc/mysql-mmm/mmm_common.conf root@192.168.20.130:/etc/mysql-mmm

                scp /etc/mysql-mmm/mmm_common.conf root@192.168.20.131:/etc/mysql-mmm

        (3)、mmm_agent.conf配置文件修改

            [root@cluster-mysqla mysql-mmm]# vim mmm_agent.conf

            圖片.png

            如圖,改配置文件只須要修改圖中標示部分,所以,若是服務器是 mastera ,就改成 this mastera ,若是服務器是 masterb ,就改成 this masterb ,以此類推

        (4)、修改 mysql-mmm-monitor 的配置文件 mmm_mon.conf

            [root@cluster-proxy mysql-mmm]# vim mmm_mon.conf

            圖片.png

            如上圖,字段解釋

      include mmm_common.conf                                                                                                 #調用 mmm_common.conf 配置文件
      <monitor>
      ip                  192.168.20.131                                                                                                  #監控主機 IP 地址
      pid_path            /run/mysql-mmm-monitor.pid                                                                    #監控進程 pid 文件目錄
      bin_path            /usr/libexec/mysql-mmm                                                                            #可執行文件目錄
      status_path         /var/lib/mysql-mmm/mmm_mond.status                                                 
      ping_ips            192.168.20.134, 192.168.20.128, 192.168.20.129, 192.168.20.130               #這裏寫4臺數據庫服務器的 IP 地址
      auto_set_online     60

      # The kill_host_bin does not exist by default, though the monitor will
      # throw a warning about it missing.  See the section 5.10 "Kill Host
      # Functionality" in the PDF documentation.
      #
      # kill_host_bin     /usr/libexec/mysql-mmm/monitor/kill_host
      #
     </monitor>

     <host default>
      monitor_user        monitor                                                                              #監控用戶
      monitor_password    123456                                                                          #監控用戶密碼
     </host>

      debug 0

        按照上面的格式,配置好 mmm_mond.conf

    b、啓動 mmm 服務

        在4臺 MySQL 服務器中啓動 mysql-mmm-agent 服務

        [root@cluster-mysqla mysql-mmm]# mmm_agentd start

        在監控服務器中驅動 mysql-mmm-monitor 服務

        [root@cluster-proxy mysql-mmm]# mmm_mond start

    c、在 monitor 服務器查看其餘4臺服務器的狀態

        [root@cluster-proxy mysql-mmm]# mmm_control show

        圖片.png

        如上圖,表示4臺數據庫服務器配置 mmm 配置 OK。

    d、測試虛擬 IP 地址是否可以 ping 通

        若是可以 ping 通,說明 mysql-mmm 部署成功,若是沒法 ping 通,則說明在主機上虛擬 IP 地址沒有設置成功,這時候,咱們須要在 5 臺數據庫服務器上執行如下命令

        [root@cluster-mysqla mysql-mmm]# perl -MCPAN -e shell

        如圖:

        圖片.png

        cpan[1]> install Net::ARP

        若是在執行 perl -MCPAN -e shell 該命令時報錯   Can't locate CPAN.pm in @INC (@INC contains: /usr/local/lib/perl5 /usr/local/share/perl5 /usr/lib/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib/perl5 /usr/share/perl5 .).



        說明,咱們沒有安裝 perl-CPAN,用 yum 安裝便可

        執行完上述命令以後,在分別在4臺服務器中執行下列命令

        mastera

        [root@cluster-mysqla mysql-mmm]# /usr/libexec/mysql-mmm/agent/configure_ip /etc/mysql-mmm/mmm_common.conf ens33 192.168.20.254

        masterb

        [root@cluster-mysqlb mysql-mmm]# /usr/libexec/mysql-mmm/agent/configure_ip /etc/mysql-mmm/mmm_common.conf ens33 192.168.20.254

        slavea
        [root@cluster-mysqlc mysql-mmm]# /usr/libexec/mysql-mmm/agent/configure_ip /etc/mysql-mmm/mmm_common.conf ens33 192.168.20.253

        slaveb

        [root@cluster-mysqld mysql-mmm]# /usr/libexec/mysql-mmm/agent/configure_ip /etc/mysql-mmm/mmm_common.conf ens33 192.168.20.252

        執行上面命令以後,在 ping 虛擬 IP 地址,ping 測試 OK,可以 ping 通

        最後,在查看4臺數據庫服務器的狀態

        [root@cluster-proxy mysql-mmm]# mmm_control checks all

        如圖:

        圖片.png

        若是全是 OK ,說明咱們的 mysql-mmm 服務部署成功

        上面的地2列的意思分別是:

        ping:ping 測試,能夠 ping 通時 OK,不然,請按照上述操做檢查

        mysql:mysql server 在線時 OK,不然,請檢查 mysql server 是否有中止

        rep_threadh:複製線程正在運行時 OK,不然請排查複製線程未運行的緣由,常見可能緣由爲:一、監控和複製所用的用戶名、密碼錯誤;二、主從同步出現故障

        rep_backlog:複製擠壓的日誌不多時 OK,不然多是服務器處理速度太慢或者數據量太大

    e、mmm_control 名詞解釋

        如圖:

        圖片.png

        check:查看指定 host 或者全部主機的指定狀態或者全部狀態

        show:查看當前集羣狀態

        set_online:把 host 的狀態由AWAITING_RECOVERY或者ADMIN_OFFLINE恢復到ONLINE

        set_offline:把 host 的狀態手動設置爲ADMIN_OFFLINE,而且會中止mysql複製

        mode:打印當前monitor的運行模式

        set_active:切換monitor進程爲主動模式

        set_passive:切換monitor進程爲被動模式

        set_manual:切換monitor進程爲手動模式

        move_role:將write角色切換到其餘主機

    f、測試mysql-mmm在服務故障狀況下是否可以自動切換,這裏值提供方法

        測試方法爲:

        中止 mastera 的 mysql 服務,查看 writer(192.168.20.254) 是否可以切換到 masterb,隨後開啓 mastera 的 mysql 服務,在手動中止 masterb 的 mysql 服務,查看 writer(192.168.20.254) 是否可以切換到 mastera ,若是都能,則說明,咱們的mysql-mmm集羣部署時OK的,若是不能,請檢查mmm_common.conf配置文件是否有錯。固然還有其餘測試思路,這裏就不一一列舉了。

        

5、鏈接MMM集羣

    部署完 mysql-mmm 集羣,這時候咱們就火燒眉毛的想要用咱們現有的應用服務去鏈接

    首先,咱們在mastera新建一個MySQL帳號game

    mysql> grant all privileges on *.* to game@"%" identified by "123456";

    mysql> flush privileges;

    而後,咱們在咱們的應用服務器上鍊接虛擬 IP(192.168.20.25四、192.168.20.25三、192.168.20.252)

        a、鏈接192.168.20.254建立一個數據庫

        [root@weba ~]# mysql -h192.168.20.254 -ugame -p123456

        圖片.png

        MySQL [(none)]> create database web;

        圖片.png

        b、鏈接192.168.20.25三、192.168.20.252查看剛纔建立的數據庫是否存在

        [root@webb ~]# mysql -h192.168.20.253 -ugame -p123456

            圖片.png

        [root@webb ~]# mysql -h192.168.20.252 -ugame -p123456

        圖片.png

        有圖可見,咱們鏈接192.168.20.254建立的數據庫,在鏈接192.168.20.253和192.168.20.252後也能看獲得,說明一切OK

        注意:鏈接192.168.20.254時,最好可以切換 mastera 和 masterb 進行鏈接建庫測試,在這期間有可能會出現如下報錯:

                  1209 - The MySQL server is running with the --read-only option so it cannot execute this statement

                  出現這個錯誤緣由是,mmm 將主數據庫設置成了只讀模式,咱們只須要執行 set global read_only=0; 便可

                 

        到此爲止,咱們的MySQL主從同步+MMM高可用集羣部署完成,咱們也列舉了一些在部署過程當中可能會踩到的坑,可是,在線上部署中,須要具體問題具體分析,因此,在之後的生活中,小弟還會和大佬們共同成長。

        對於以上部署過程,如有疑問,可參照 官方安裝文檔

本節完。

相關文章
相關標籤/搜索