MySQL在線DDL工具 gh-ost

一.簡介

gh-ost基於 golang 語言,是 github 開源的一個 DDL 工具,是 GitHub's Online Schema Transmogrifier/Transfigurator/Transformer/Thingy 的縮寫,意思是 GitHub 的在線表定義轉換器。 html

1.1 原理

主要實現原理,首先建兩張表,一張_gho的影子表,gh-ost會將原表數據以及增量數據都應用到這個表,最後會將這個表和原表作次表名切換,另外一張是_ghc表,這個表是存放changelog的數據,包括信號標記,心跳等。其次,gh-ost會開兩個goroutine,一個用於拷貝原表數據,一個用於apply增量的binlog到_gho表,而且兩個goroutine的並行在跑的,也就是不用關心數據是先拷貝過去仍是先apply binlog過去。由於這裏會對insert語句作調整,首先咱們拷貝的insert into會改寫成insert ignore into,而binlog內insert into會改寫成replace into,這樣能夠很好的支持兩個goroutine的並行。但這樣的調整能適用全部的DDL嗎?答案是否認的。最後,當原表數據所有拷貝完成後,gh-ost會進入到表交換階段,採用更加安全的原子交換。mysql

1.2 過程

1. 檢查有沒有外鍵和觸發器。
2. 檢查表的主鍵信息。
3. 檢查是否主庫或從庫,是否開啓log_slave_updates,以及binlog信息
4. 檢查gho和del結尾的臨時表是否存在
5. 建立ghc結尾的表,存數據遷移的信息,以及binlog信息等
---以上校驗階段
6. 初始化stream的鏈接,添加binlog的監聽
---如下遷移階段
7. 建立gho結尾的臨時表,執行DDL在gho結尾的臨時表上
8. 開啓事務,按照主鍵id把源表數據寫入到gho結尾的表上,再提交,以及binlog apply。
---如下cut-over階段
9. lock源表,rename 表:rename 源表 to 源_del表,gho表 to 源表。
10. 清理ghc表。linux

1.3 特性

1. 無觸發器:經過分析binlog日誌的形式來監聽表中的數據變動。git

2. 輕量級:因爲沒有使用觸發器,所以在操做的過程當中對主庫的影響是最小的,也不用擔憂併發和鎖。github

3. 可暫停:全部的寫操做都是由gh-ost控制的,當限速的時候,gh-ost能夠暫停向主庫寫入數據,建立一個內部的tracking表,以最小的系統開銷向這個表中寫入心跳事件。golang

4. 動態可控:gh-ost 能夠經過 unix socket 文件或者TCP端口(可配置)的方式來監聽請求,操做者能夠在命令運行後更改相應的參數。算法

5. 可審計:使用程序接口能夠獲取 gh-ost 的狀態,報告當前的進度,主要參數的配置以及當前服務器 的標示等等。sql

6. 可測試:gh-ost內建支持測試功能,經過使用--test-on-replica參數來指定: 它能夠在從庫上進行變動操做,在操做結束時gh-ost將會中止複製,交換表,反向交換表,保留2個表並保持同步,中止複製。能夠在空閒時候測試和比較兩個表的數據狀況。
數據庫

1.4 github地址

https://github.com/github/gh-ost/安全

二.測試環境:

2.1 測試服務器

主庫:110.119.120.231

從庫:110.119.120.230

2.2 安裝

cd /usr/local/src/

wget https://github.com/github/gh-ost/releases/download/v1.0.48/gh-ost-binary-linux20190214020851.tar.gz

tar xzvf gh-ost-binary-linux-20190214020851.tar.gz -C /usr/local/
ln -s /usr/local/gh-ost /usr/bin/gh-ost

2.3 建立用戶

create user ghost@'110.%' identified by 'ghost';

grant ALL PRIVILEGES on *.* to ghost@'110.%';

flush privileges; 

2.4 命令參數

Usage of gh-ost:
  --aliyun-rds:是否在阿里雲數據庫上執行。true
  --allow-master-master:是否容許gh-ost運行在雙主複製架構中,通常與-assume-master-host參數一塊兒使用
  --allow-nullable-unique-key:容許gh-ost在數據遷移依賴的惟一鍵能夠爲NULL,默認爲不容許爲NULL的惟一鍵。若是數據遷移(migrate)依賴的惟一鍵容許NULL值,則可能形成數據不正確,請謹慎使用。
  --allow-on-master:容許gh-ost直接運行在主庫上。默認gh-ost鏈接的從庫。此外,單實例上DDL,單個實例至關於主庫,須要開啓--allow-on-master參數和ROW模式。
  --alter string:DDL語句
  --approve-renamed-columns ALTER:若是你修改一個列的名字,gh-ost將會識別到而且須要提供重命名列名的緣由,默認狀況下gh-ost是不繼續執行的,除非提供-approve-renamed-columns ALTER。
  --ask-pass:MySQL密碼
  --assume-master-host string:爲gh-ost指定一個主庫,格式爲」ip:port」或者」hostname:port」。在這主主架構裏比較有用,或則在gh-ost發現不到主的時候有用。
  --assume-rbr:確認gh-ost鏈接的數據庫實例的binlog_format=ROW的狀況下,能夠指定-assume-rbr,這樣能夠禁止從庫上運行stop slave,start slave,執行gh-ost用戶也不須要SUPER權限。
  --check-flag
  --chunk-size int:在每次迭代中處理的行數量(容許範圍:100-100000),默認值爲1000。
  --concurrent-rowcount:該參數若是爲True(默認值),則進行row-copy以後,估算統計行數(使用explain select count(*)方式),並調整ETA時間,不然,gh-ost首先預估統計行數,而後開始row-copy。
  --conf string:gh-ost的配置文件路徑。
  --critical-load string:一系列逗號分隔的status-name=values組成,當MySQL中status超過對應的values,gh-ost將會退出。-critical-load Threads_connected=20,Connections=1500,指的是當MySQL中的狀態值Threads_connected>20,Connections>1500的時候,gh-ost將會因爲該數據庫嚴重負載而中止並退出。
        Comma delimited status-name=threshold, same format as --max-load. When status exceeds threshold, app panics and quits
  --critical-load-hibernate-seconds int :負載達到critical-load時,gh-ost在指定的時間內進入休眠狀態。 它不會讀/寫任何來自任何服務器的任何內容。
  --critical-load-interval-millis int:當值爲0時,當達到-critical-load,gh-ost當即退出。當值不爲0時,當達到-critical-load,gh-ost會在-critical-load-interval-millis秒數後,再次進行檢查,再次檢查依舊達到-critical-load,gh-ost將會退出。
  --cut-over string:選擇cut-over類型:atomic/two-step,atomic(默認)類型的cut-over是github的算法,two-step採用的是facebook-OSC的算法。
  --cut-over-exponential-backoff
  --cut-over-lock-timeout-seconds int:gh-ost在cut-over階段最大的鎖等待時間,當鎖超時時,gh-ost的cut-over將重試。(默認值:3)
  --database string:數據庫名稱。
  --debug:debug模式。
  --default-retries int:各類操做在panick前重試次數。(默認爲60)
  --discard-foreign-keys:該參數針對一個有外鍵的表,在gh-ost建立ghost表時,並不會爲ghost表建立外鍵。該參數很適合用於刪除外鍵,除此以外,請謹慎使用。
  --dml-batch-size int:在單個事務中應用DML事件的批量大小(範圍1-100)(默認值爲10)
  --exact-rowcount:準確統計表行數(使用select count(*)的方式),獲得更準確的預估時間。
  --execute:實際執行alter&migrate表,默認爲noop,不執行,僅僅作測試並退出,若是想要ALTER TABLE語句真正落實到數據庫中去,須要明確指定-execute
  --exponential-backoff-max-interval int
  --force-named-cut-over:若是爲true,則'unpostpone | cut-over'交互式命令必須命名遷移的表
  --force-table-names string:在臨時表上使用的表名前綴
  --heartbeat-interval-millis int:gh-ost心跳頻率值,默認爲500
  --help
  --hooks-hint string:任意消息經過GH_OST_HOOKS_HINT注入到鉤子
  --hooks-path string:hook文件存放目錄(默認爲empty,即禁用hook)。hook會在這個目錄下尋找符合約定命名的hook文件來執行。
  --host string :MySQL IP/hostname
  --initially-drop-ghost-table:gh-ost操做以前,檢查並刪除已經存在的ghost表。該參數不建議使用,請手動處理原來存在的ghost表。默認不啓用該參數,gh-ost直接退出操做。
  --initially-drop-old-table:gh-ost操做以前,檢查並刪除已經存在的舊錶。該參數不建議使用,請手動處理原來存在的ghost表。默認不啓用該參數,gh-ost直接退出操做。
  --initially-drop-socket-file:gh-ost強制刪除已經存在的socket文件。該參數不建議使用,可能會刪除一個正在運行的gh-ost程序,致使DDL失敗。
  --master-password string :MySQL 主密碼
  --master-user string:MysQL主帳號
  --max-lag-millis int:主從複製最大延遲時間,當主從複製延遲時間超過該值後,gh-ost將採起節流(throttle)措施,默認值:1500s。
  --max-load string:逗號分隔狀態名稱=閾值,如:'Threads_running=100,Threads_connected=500'. When status exceeds threshold, app throttles writes
  --migrate-on-replica:gh-ost的數據遷移(migrate)運行在從庫上,而不是主庫上。 
  --nice-ratio float:每次chunk時間段的休眠時間,範圍[0.0100.0]。0:每一個chunk時間段不休眠,即一個chunk接着一個chunk執行;1:每row-copy 1毫秒,則另外休眠1毫秒;0.7:每row-copy 10毫秒,則另外休眠7毫秒。
  --ok-to-drop-table:gh-ost操做結束後,刪除舊錶,默認狀態是不刪除舊錶,會存在_tablename_del表。
  --panic-flag-file string:當這個文件被建立,gh-ost將會當即退出。
  --password string :MySQL密碼
 --port int :MySQL端口,最好用從庫
  --postpone-cut-over-flag-file string:當這個文件存在的時候,gh-ost的cut-over階段將會被推遲,數據仍然在複製,直到該文件被刪除。
  --quiet:靜默模式。
  --replica-server-id uint : gh-ost的server_id
  --replication-lag-query string:棄用
  --serve-socket-file string:gh-ost的socket文件絕對路徑。
  --serve-tcp-port int:gh-ost使用端口,默認爲關閉端口。
  --skip-foreign-key-checks:肯定你的表上沒有外鍵時,設置爲'true',而且但願跳過gh-ost驗證的時間-skip-renamed-columns ALTER
  --skip-renamed-columns ALTER:若是你修改一個列的名字(如change column),gh-ost將會識別到而且須要提供重命名列名的緣由,默認狀況下gh-ost是不繼續執行的。該參數告訴gh-ost跳該列的數據遷移,讓gh-ost把重命名列做爲可有可無的列。該操做很危險,你會損失該列的全部值。
  --stack:添加錯誤堆棧追蹤。
  --switch-to-rbr:讓gh-ost自動將從庫的binlog_format轉換爲ROW格式。
  --table string:表名
  --test-on-replica:在從庫上測試gh-ost,包括在從庫上數據遷移(migration),數據遷移完成後stop slave,原表和ghost表馬上交換然後馬上交換回來。繼續保持stop slave,使你能夠對比兩張表。
  --test-on-replica-skip-replica-stop:當-test-on-replica執行時,該參數表示該過程當中不用stop slave。
  --throttle-additional-flag-file string:當該文件被建立後,gh-ost操做當即中止。該參數能夠用在多個gh-ost同時操做的時候,建立一個文件,讓全部的gh-ost操做中止,或者刪除這個文件,讓全部的gh-ost操做恢復。
  --throttle-control-replicas string:列出全部須要被檢查主從複製延遲的從庫。
  --throttle-flag-file string:當該文件被建立後,gh-ost操做當即中止。該參數適合控制單個gh-ost操做。-throttle-additional-flag-file string適合控制多個gh-ost操做。
  --throttle-http string
  --throttle-query string:節流查詢。每秒鐘執行一次。當返回值=0時不須要節流,當返回值>0時,須要執行節流操做。該查詢會在數據遷移(migrated)服務器上操做,因此請確保該查詢是輕量級的。
  --timestamp-old-table:在舊錶名中使用時間戳。 這會使舊錶名稱具備惟一且無衝突的交叉遷移
  --tungsten:告訴gh-ost你正在運行的是一個tungsten-replication拓撲結構。
  --user string :MYSQL用戶
  --verbose
  --version

三. 操做模式

模式一 連上從庫,在主庫上修改

這是gh-ost 默認的工做模式,它會查看從庫狀況,找到集羣的主庫而且鏈接上去。修改操做的具體步驟是:

一、在主庫上讀寫行數據;

二、在從庫上讀取二進制日誌事件,將變動應用到主庫上;

三、在從庫上查看錶格式、字段、主鍵、總行數等;

四、在從庫上讀取 gh-ost 內部事件日誌(好比心跳);

五、在主庫上完成表切換。

若是你的主庫的日誌格式是 SBR,工具也能夠正常工做。但從庫就必須配成啓用二進制日誌(log_bin, log_slave_updates)而且設置 binlog_format=ROW ( gh-ost 是讀取從庫的二進制文件)。

使用示例: 

# gh-ost --initially-drop-old-table --initially-drop-ghost-table --user="ghost" --password="ghost" --host=110.119.120.230 --port=3306 --database="test" --table="t1" --verbose --alter="ADD COLUMN y1 varchar(10),add column y2 int not null default 0 comment 'test' " --assume-rbr --execute 

參數含義:

--initially-drop-old-table:gh-ost操做以前,檢查並刪除已經存在的舊錶。

--initially-drop-ghost-table:gh-ost操做以前,檢查並刪除已經存在的ghost表。

--verbose:執行過程輸出日誌

--assume-rbr:確認gh-ost鏈接的數據庫實例binlog_format=ROW的狀況下,能夠指定-assume-rbr,這樣能夠避免從庫上運行stop slave,start slave,執行gh-ost的用戶也不須要SUPER權限。 

模式二 直接在主庫上修改 

若是沒有從庫,或者不想在從庫上操做,那直接用主庫也是能夠的。gh-ost 就會在主庫上直接作全部的操做。仍然能夠在上面查看主從複製延遲。

1)主庫必須產生 Row 格式的二進制日誌

2)啓動 gh-ost 時必須用--allow-on-master 選項來開啓這種模式

# gh-ost --initially-drop-old-table --initially-drop-ghost-table --user="ghost" --password="ghost" --host="110.119.120.231"  --port=3306 --database="test" --table="t2" --verbose --alter="add column test_field varchar(256) default '';" --exact-rowcount --serve-socket-file=/tmp/gh-ost.t2.sock --panic-flag-file=/tmp/ghost.panic.t2.flag --postpone-cut-over-flag-file=/tmp/ghost.postpone.t2.flag --allow-on-master --execute 
 

 參數含義:

--exact-rowcount:準確統計表行數(使用select count(*)的方式),獲得更準確的預估時間。

--serve-socket-file:gh-ost的socket文件絕對路徑。如:--serve-socket-file=/tmp/gh-ost.t1.sock 建立socket文件進行監聽,經過接口進行參數調整,當執行操做的過程當中發現負載、延遲上升了,不得 不終止操做,從新配置參數,如 chunk-size,而後從新執行操做命令,能夠經過scoket接口進行動態 調整。

#暫停

echo throttle | socat - /tmp/gh-ost.t1.sock

#恢復

echo no-throttle | socat - /tmp/gh-ost.t1.sock

修改限速參數:

echo chunk-size=1500 | socat - /tmp/gh-ost.t1.sock
echo max-lag-millis=2000 | socat - /tmp/gh-ost.t1.sock

echo max-load=Thread_running=30 | socat - /tmp/gh-ost.t1.sock


--panic-flag-file:這個文件被建立,會當即終止正在運行的gh-ost,臨時文件清理須要手動進行。

--postpone-cut-over-flag-file:當這個文件存在的時候,gh-ost的cut-over階段將會被推遲,數據仍 然在複製,但並不會切換表,直到該文件被刪除。

--allow-on-master:容許gh-ost直接運行在主庫上。

模式三 在從庫上修改和測試

這種模式會在從庫上作修改,全部操做都是在從庫上作的,不會對主庫產生任何影響。在操做過程當中, gh-ost 也會不時地暫停,以便從庫的數據能夠保持最新。

--test-on-replica 代表操做只是爲了測試目的。在進行最終的切換操做以前,複製會被中止。原始表和臨時表會相互切換,再切換回來,最終至關於原始表沒被動過。主從複製暫停的狀態下,能夠檢查和對比這兩張表中的數據(若不想stop slave,可添加參數--test-on-replica-skip-replica-stop)。 

# gh-ost --initially-drop-old-table --initially-drop-ghost-table --user="ghost" --password="ghost" --host=110.119.120.230 --port=3306  --database="test" --table="t3" --verbose --alter="ADD COLUMN abc1 varchar(10),add column abc2 int not null default 0 comment 'test' " --test-on-replica --assume-rbr --execute 
 

rds限制:

1. 用戶沒有 Super 權限,所以使用過程當中要加上--assume-rbr,gh-ost 會認爲 binlog 自己就是 row 模式,不會再去修改。阿里雲RDS上的binlog 默認也是 row 模式,因此不存在問題。

2. 其它權限,主要是REPLICATION SLAVE,REPLICATION CLIENT能夠拉取 binlog ,也能夠得到。

三、沒法鏈接到備庫拉取binlog。備庫一般對用戶來講是透明的,因此gh-ost須要直接鏈接到主庫上 去,這可能會增大對主庫的負載。使用的時候須要增長--allow-on-master,--assume-master-host。 官方推薦的方式也是鏈接到其中一個備庫,由於會有一些壓力較大的SELECT操做,放在備庫是最好的。

四、阿里雲數據庫上執行,須要增長一個參數--aliyun-rds。 目前用戶使用的話,記得加上如下幾個參數: --allow-on-master --assume-rbr --assume-master-host --aliyun-rds 

四.gh-ost與pt-osc對比

4.1 pt-osc的簡單介紹

pt-osc之工做流程
一、檢查更改表是否有主鍵或惟一索引,是否有觸發器
二、檢查修改表的表結構,建立一個臨時表,在新表上執行ALTER TABLE語句
三、在源表上建立三個觸發器分別對於INSERT UPDATE DELETE操做
四、從源表拷貝數據到臨時表,在拷貝過程當中,對源表的更新操做會寫入到新建表中
五、將臨時表和源表rename(須要元數據修改鎖,須要短期鎖表)
六、刪除源表和觸發器,完成表結構的修改。

pt-osc之工具限制
一、源表必須有主鍵或惟一索引,若是沒有工具將中止工做
二、若是線上的複製環境過濾器操做過於複雜,工具將沒法工做
三、若是開啓複製延遲檢查,但主從延遲時,工具將暫停數據拷貝工做
四、若是開啓主服務器負載檢查,但主服務器負載較高時,工具將暫停操做
五、當表使用外鍵時,若是未使用--alter-foreign-keys-method參數,工具將沒法執行
六、只支持Innodb存儲引擎表,且要求服務器上有該表1倍以上的空閒空間。

那麼gh-ost對比pt-osc具體有哪些優點呢?下面先簡單介紹下它的兩個最核心的特性。

4.2 Triggerless

在gh-ost出現以前第三方MySQL DDL工具均採用觸發器的方式進行實現,包括percona的pt-osc,Facebook的OSC等等。而gh-ost採用的機制和他們徹底不一樣:它經過MySQL binlog來同步數據,gh-ost自己註冊爲一個fake slave,能夠從集羣中的master或者slave上拉取binlog,並實時解析,將變動表的全部DML操做都從新apply到影子表上面。所以對於發佈期間變動表上發生的DML操做,能夠徹底避免因爲觸發器而產生的性能開銷,以及鎖的爭搶。

除此以外,通常咱們選擇目標發佈機器一般會選擇集羣中slave節點,而slave通常不會承載業務,這樣binlog解析的開銷也不會落在提供業務的master上面,而僅僅是一次異步的DML語句重放。

4.3 Dynamically controllable

另外一個最重要的特性是動態調控,這是此前其餘第三方開源工具所不具有的。

以前經過pt-osc發佈時,命令執行後參數就無法修改,除非中止重來。假設發佈進行到90%,忽然因爲其餘各類緣由致使服務器負載上升,爲不影響業務,只能選擇將發佈停掉,等性能恢復再重來。

經過pt-osc發佈的表都是很大的表,耗時較長,因此遇到這類場景很尷尬。所以發佈中參數若是可動態調控將變得很是重要。gh-ost另外實現了一個socket server,咱們能夠在發佈過程當中,經過socket和發佈進程進行實時交互,它能夠支持實時的暫停,恢復,以及不少參數的動態調整,來適應外界變化。

五.參考文獻

1.gh-ost原理

http://www.javashuo.com/article/p-zcovakqh-cz.html

2.技術分享 | gh-ost 在線 ddl 變動工具

https://zhuanlan.zhihu.com/p/83770402

3.乾貨 | 攜程數據庫發佈系統演進之路

https://blog.csdn.net/ctrip_tech/article/details/108395676

4.MySQL在線DDL gh-ost 使用說明

5.MySQL--pt-osc工具學習
  https://www.cnblogs.com/TeyGao/p/7160421.html
相關文章
相關標籤/搜索