1、MySQL的複製原理以及流程
(1)複製基本原理流程
1. 主:binlog線程——記錄下全部改變了數據庫數據的語句,放進master上的binlog中;
2. 從:io線程——在使用start slave 以後,負責從master上拉取 binlog 內容,放進 本身的relay log中;
3. 從:sql執行線程——執行relay log中的語句;
(2)MySQL複製的線程有幾個及之間的關聯
MySQL 的複製是基於以下 3 個線程的交互( 多線程複製裏面應該是 4 類線程):
1. Master 上面的 binlog dump 線程,該線程負責將 master 的 binlog event 傳到slave;
2. Slave 上面的 IO 線程,該線程負責接收 Master 傳過來的 binlog,並寫入 relay log;
3. Slave 上面的 SQL 線程,該線程負責讀取 relay log 並執行;
4. 若是是多線程複製,不管是 5.6 庫級別的假多線程仍是 MariaDB 或者 5.7 的真正的多線程複製, SQL 線程只作 coordinator,只負責把 relay log 中的 binlog讀出來而後交給 worker 線程, woker 線程負責具體 binlog event 的執行;
(3)MySQL如何保證複製過程當中數據一致性及減小數據同步延時
1.在 MySQL5.5 以及以前, slave 的 SQL 線程執行的 relay log 的位置只能保存在文件( relay-log.info)裏面,而且該文件默認每執行 10000 次事務作一次同步到磁盤, 這意味着 slave 意外 crash 重啓時, SQL 線程執行到的位置和數據庫的數據是不一致的,將致使複製報錯,若是不重搭複製,則有可能會致使數據不一致。MySQL 5.6 引入參數 relay_log_info_repository,將該參數設置爲 TABLE 時, MySQL 將 SQL 線程執行到的位置存到mysql.slave_relay_log_info 表,這樣更新該表的位置和 SQL 線程執行的用戶事務綁定成一個事務,這樣 slave 意外宕機後, slave 經過 innodb 的崩潰恢復能夠把 SQL 線程執行到的位置和用戶事務恢復到一致性的狀態。
2. MySQL 5.6 引入 GTID 複製,每一個 GTID 對應的事務在每一個實例上面最多執行一次, 這極大地提升了複製的數據一致性;
3. MySQL 5.5 引入半同步複製, 用戶安裝半同步複製插件而且開啓參數後,設置超時時間,可保證在超時時間內若是 binlog 不傳到 slave 上面,那麼用戶提交事務時不會返回,直到超時後切成異步複製,可是若是切成異步以前用戶線程提交時在 master 上面等待的時候,事務已經提交,該事務對 master上面的其餘 session 是可見的,若是這時 master 宕機,那麼到 slave 上面該事務又不可見了,該問題直到 5.7 才解決;
4. MySQL 5.7 引入無損半同步複製,引入參 rpl_semi_sync_master_wait_point,該參數默認爲 after_sync,指的是在切成半同步以前,事務不提交,而是接收到 slave 的 ACK 確認以後才提交該事務,今後,複製真正能夠作到無損的了。
5.能夠再說一下 5.7 的無損複製狀況下, master 意外宕機,重啓後發現有 binlog沒傳到 slave 上面,這部分 binlog 怎麼辦???分 2 種狀況討論, 1 宕機時已經切成異步了, 2 是宕機時還沒切成異步???這個怎麼判斷宕機時有沒有切成異步呢???分別怎麼處理???
5.5 是單線程複製, 5.6 是多庫複製(對於單庫或者單表的併發操做是沒用的), 5.7 是真正意義的多線程複製,它的原理是基於 group commit, 只要master 上面的事務是 group commit 的,那 slave 上面也能夠經過多個 worker線程去併發執行。和 MairaDB10.0.0.5 引入多線程複製的原理基本同樣。
(4)工做遇到的複製 bug 的解決方法
5.6 的多庫複製有時候本身會中止,咱們寫了一個腳本從新 start slave;待補充…
2、MySQL中myisam與innodb的區別,至少5點
(1)問5點不一樣
1.InnoDB支持事物,而MyISAM不支持事物
2.InnoDB支持行級鎖,而MyISAM支持表級鎖
3.InnoDB支持MVCC, 而MyISAM不支持
5.InnoDB不支持全文索引,而MyISAM支持。
6.InnoDB不能經過直接拷貝表文件的方法拷貝表到另一臺機器, myisam 支持
7.InnoDB表支持多種行格式, myisam 不支持
8.InnoDB是索引組織表, myisam 是堆表
(3)各類不一樣 mysql 版本的Innodb的改進
MySQL5.6 下 Innodb 引擎的主要改進:
3.transportable tablespace( alter table discard/import tablespace)
4.MySQL 正常關閉時,能夠 dump 出 buffer pool 的( space, page_no),重啓時 reload,加快預熱速度
5.索引和表的統計信息持久化到 mysql.innodb_table_stats 和mysql.innodb_index_stats,可提供穩定的執行計劃
6.Compressed row format 支持壓縮表
1.修改 varchar 字段長度有時可使用 online DDL
4.支持新建 innodb tablespace,並能夠在其中建立多張表
5.磁盤臨時表採用 innodb 存儲,而且存儲在 innodb temp tablespace 裏面,之前是 myisam 存儲
(4)2者select count(*)哪一個更快,爲何
myisam更快,由於myisam內部維護了一個計數器,能夠直接調取。
(5)2 者的索引的實現方式
都是 B+樹索引, Innodb 是索引組織表, myisam 是堆表, 索引組織表和堆表的區別要熟悉
3、MySQL中varchar與char的區別以及varchar(50)中的50表明的涵義
(1)varchar與char的區別
在單字節字符集下, char(N) 在內部存儲的時候老是定長, 並且沒有變長字段長度列表中。在多字節字符集下面, char(N)若是存儲的字節數超過 N,那麼 char(N)將和 varchar(N)沒有區別。在多字節字符集下面,若是存儲的字節數少於 N,那麼存儲 N 個字節,後面補空格,補到 N 字節長度。都存儲變長的數據和變長字段長度列表。varchar(N)不管是什麼字節字符集,都是變長的,即都存儲變長數據和變長字段長度列表
(2)varchar(50)中50的涵義
最多存放50個字符,varchar(50)和(200)存儲hello所佔空間同樣,但後者在排序時會消耗更多內存,由於order by col採用fixed_length計算col長度(memory引擎也同樣)。在早期 MySQL 版本中, 50 表明字節數,如今表明字符數。
(3)int(20)中20的涵義
不影響內部存儲,只是影響帶 zerofill 定義的 int 時,前面補多少個 0,易於報表展現
(4)mysql爲何這麼設計
對大多數應用沒有意義,只是規定一些工具用來顯示字符的個數;int(1)和int(20)存儲和計算均同樣;
4、innodb的事務與日誌的實現方式
(1)有多少種日誌
(2)日誌的存放形式
redo:在頁修改的時候,先寫到 redo log buffer 裏面, 而後寫到 redo log 的文件系統緩存裏面(fwrite),而後再同步到磁盤文件( fsync)。
Undo:在 MySQL5.5 以前, undo 只能存放在 ibdata*文件裏面, 5.6 以後,能夠經過設置 innodb_undo_tablespaces 參數把 undo log 存放在 ibdata*以外。
(3)事務是如何經過日誌來實現的,說得越深刻越好
由於事務在修改頁時,要先記 undo,在記 undo 以前要記 undo 的 redo, 而後修改數據頁,再記數據頁修改的 redo。Redo(裏面包括 undo 的修改) 必定要比數據頁先持久化到磁盤。當事務須要回滾時,由於有 undo,能夠把數據頁回滾到前鏡像的
狀態,崩潰恢復時,若是 redo log 中事務沒有對應的 commit 記錄,那麼須要用 undo把該事務的修改回滾到事務開始以前。若是有 commit 記錄,就用 redo 前滾到該事務完成時並提交掉。
5、MySQL binlog的幾種日誌錄入格式以及區別
(1) 各類日誌格式的涵義
1.Statement:每一條會修改數據的sql都會記錄在binlog中。
優勢:不須要記錄每一行的變化,減小了binlog日誌量,節約了IO,提升性能。(相比row能節約多少性能 與日誌量,這個取決於應用的SQL狀況,正常同一條記錄修改或者插入row格式所產生的日誌量還小於Statement產生的日誌量,
可是考慮到若是帶條 件的update操做,以及整表刪除,alter表等操做,ROW格式會產生大量日誌,所以在考慮是否使用ROW格式日誌時應該跟據應用的實際狀況,其所 產生的日誌量會增長多少,以及帶來的IO性能問題。)
缺點:因爲記錄的只是執行語句,爲了這些語句能在slave上正確運行,所以還必須記錄每條語句在執行的時候的 一些相關信息,以保證全部語句能在slave獲得和在master端執行時候相同 的結果。另外mysql 的複製,
像一些特定函數功能,slave可與master上要保持一致會有不少相關問題(如sleep()函數, 1534555,以及user-defined functions(udf)會出現問題).
* SYSDATE() (除非啓動時啓用了 --sysdate-is-now 選項)
同時在INSERT ...SELECT 會產生比 RBR 更多的行級鎖
2.Row:不記錄sql語句上下文相關信息,僅保存哪條記錄被修改。
優勢:binlog中能夠不記錄執行的sql語句的上下文相關的信息,僅須要記錄那一條記錄被修改爲什麼了。因此rowlevel的日誌內容會很是清楚的記錄下 每一行數據修改的細節。並且不會出現某些特定狀況下的存儲過程,或function,以及trigger的調用和觸發沒法被正確複製的問題
缺點:全部的執行的語句當記錄到日誌中的時候,都將以每行記錄的修改來記錄,這樣可能會產生大量的日誌內容,比 如一條update語句,修改多條記錄,則binlog中每一條修改都會有記錄,這樣形成binlog日誌量會很大,特別是當執行alter table之類的語句的時候,因爲表結構修改,每條記錄都發生改變,那麼該表每一條記錄都會記錄到日誌中。
3.Mixedlevel: 是以上兩種level的混合使用,通常的語句修改使用statment格式保存binlog,如一些函數,statement沒法完成主從複製的操做,則 採用row格式保存binlog,MySQL會根據執行的每一條具體的sql語句來區分對待記錄的日誌形式,
也就是在Statement和Row之間選擇 一種.新版本的MySQL中隊row level模式也被作了優化,並非全部的修改都會以row level來記錄,像遇到表結構變動的時候就會以statement模式來記錄。至於update或者delete等修改數據的語句,仍是會記錄全部行的變動。
(2)適用場景
在一條 SQL 操做了多行數據時, statement 更節省空間, row 更佔用空間。可是 row模式更可靠。
(3)結合第一個問題,每一種日誌格式在複製中的優劣
Statement 可能佔用空間會相對小一些,傳送到 slave 的時間可能也短,可是沒有 row模式的可靠。Row 模式在操做多行數據時更佔用空間, 可是可靠。
6、下MySQL數據庫cpu飆升到500%的話他怎麼處理?
當 cpu 飆升到 500%時,先用操做系統命令 top 命令觀察是否是 mysqld 佔用致使的,若是不是,找出佔用高的進程,並進行相關處理。若是是 mysqld 形成的, show processlist,看看裏面跑的 session 狀況,是否是有消耗資源的 sql 在運行。找出消耗高的 sql,看看執行計劃是否準確, index 是否缺失,或者實在是數據量太大形成。通常來講,確定要 kill 掉這些線程(同時觀察 cpu 使用率是否降低),等進行相應的調整(好比說加索引、改 sql、改內存參數)以後,再從新跑這些 SQL。也有多是每一個 sql 消耗資源並很少,可是忽然之間,有大量的 session 連進來致使 cpu 飆升,這種狀況就須要跟應用一塊兒來分析爲什麼鏈接數會激增,再作出相應的調整,好比說限制鏈接數等
7、sql優化
(1)、explain出來的各類item的意義
id:每一個被獨立執行的操做的標誌,表示對象被操做的順序。通常來講, id 值大,先被執行;若是 id 值相同,則順序從上到下。
select_type:查詢中每一個 select 子句的類型。
table:名字,被操做的對象名稱,一般的表名(或者別名),可是也有其餘格式。
possible_keys:列出可能會用到的索引。
key_len:用到的索引鍵的平均長度,單位爲字節。
ref:表示本行被操做的對象的參照對象,多是一個常量用 const 表示,也多是其餘表的
filtered:rows*filtered/100 表示該步驟最後獲得的行數(估計值)。
(2)、profile的意義以及使用場景
Profile 用來分析 sql 性能的消耗分佈狀況。當用 explain 沒法解決慢 SQL 的時候,須要用profile 來對 sql 進行更細緻的分析,找出 sql 所花的時間大部分消耗在哪一個部分,確認 sql的性能瓶頸。
(3)、explain 中的索引問題
Explain 結果中,通常來講,要看到儘可能用 index(type 爲 const、 ref 等, key 列有值),避免使用全表掃描(type 顯式爲 ALL)。好比說有 where 條件且選擇性不錯的列,須要創建索引。
被驅動表的鏈接列,也須要創建索引。被驅動表的鏈接列也可能會跟 where 條件列一塊兒創建聯合索引。當有排序或者 group by 的需求時,也能夠考慮創建索引來達到直接排序和彙總的需求。
8、備份計劃,mysqldump以及xtranbackup的實現原理
(1)備份計劃
視庫的大小來定,通常來講 100G 內的庫,能夠考慮使用 mysqldump 來作,由於 mysqldump更加輕巧靈活,備份時間選在業務低峯期,能夠天天進行都進行全量備份(mysqldump 備份
出來的文件比較小,壓縮以後更小)。100G 以上的庫,能夠考慮用 xtranbackup 來作,備份速度明顯要比 mysqldump 要快。通常是選擇一週一個全備,其他天天進行增量備份,備份時間爲業務低峯期。
(2)備份恢復時間
這裏跟機器,尤爲是硬盤的速率有關係,如下列舉幾個僅供參考
(3)備份恢復失敗如何處理
首先在恢復以前就應該作足準備工做,避免恢復的時候出錯。好比說備份以後的有效性檢查、權限檢查、空間檢查等。若是萬一報錯,再根據報錯的提示來進行相應的調整。
(4)mysqldump和xtrabackup實現原理
mysqldump 屬於邏輯備份。加入--single-transaction 選項能夠進行一致性備份。後臺進程會先設置 session 的事務隔離級別爲 RR(SET SESSION TRANSACTION ISOLATION LEVELREPEATABLE READ),以後顯式開啓一個事務(START TRANSACTION /*!40100 WITH CONSISTENTSNAPSHOT */),這樣就保證了該事務裏讀到的數據都是事務事務時候的快照。以後再把表的數據讀取出來。若是加上--master-data=1 的話,在剛開始的時候還會加一個數據庫的讀鎖(FLUSH TABLES WITH READ LOCK),等開啓事務後,再記錄下數據庫此時 binlog 的位置(showmaster status),立刻解鎖,再讀取表的數據。等全部的數據都已經導完,就能夠結束事務
xtrabackup 屬於物理備份,直接拷貝表空間文件,同時不斷掃描產生的 redo 日誌並保存下來。最後完成 innodb 的備份後,會作一個 flush engine logs 的操做(老版本在有 bug,在5.6 上不作此操做會丟數據),確保全部的 redo log 都已經落盤(涉及到事務的兩階段提交
概念,由於 xtrabackup 並不拷貝 binlog,因此必須保證全部的 redo log 都落盤,不然可能會丟最後一組提交事務的數據)。這個時間點就是 innodb 完成備份的時間點,數據文件雖然不是一致性的,可是有這段時間的 redo 就可讓數據文件達到一致性(恢復的時候作的事
情)。而後還須要 flush tables with read lock,把 myisam 等其餘引擎的表給備份出來,備份完後解鎖。這樣就作到了完美的熱備。
9、mysqldump中備份出來的sql,若是我想sql文件中,一行只有一個insert....value()的話,怎麼辦?若是備份須要帶上master的複製點信息怎麼辦?
--skip-extended-insert
[root@helei-zhuanshu ~]# mysqldump -uroot -p helei --skip-extended-insert
Enter password:
KEY `idx_c1` (`c1`),
KEY `idx_c2` (`c2`)
) ENGINE=InnoDB AUTO_INCREMENT=51 DEFAULT CHARSET=latin1;
/*!40101 SET character_set_client = @saved_cs_client */;
--
-- Dumping data for table `helei`
--
LOCK TABLES `helei` WRITE;
/*!40000 ALTER TABLE `helei` DISABLE KEYS */;
INSERT INTO `helei` VALUES (1,32,37,38,'2016-10-18 06:19:24','susususususususususususu');
INSERT INTO `helei` VALUES (2,37,46,21,'2016-10-18 06:19:24','susususususu');
INSERT INTO `helei` VALUES (3,21,5,14,'2016-10-18 06:19:24','susu');
複製代碼
10、500臺db,在最快時間以內重啓
可使用批量 ssh 工具 pssh 來對須要重啓的機器執行重啓命令。也可使用 salt(前提是客戶端有安裝 salt)或者 ansible( ansible 只須要 ssh 免登通了就行)等多線程工具同時操做多臺服務器
11、innodb的讀寫參數優化
(1)讀取參數
global buffer 以及 local buffer;
Global buffer:
Innodb_buffer_pool_size
innodb_log_buffer_size
innodb_additional_mem_pool_size
local buffer(下面的都是 server 層的 session 變量,不是 innodb 的):
Read_buffer_size
Join_buffer_size
Sort_buffer_size
Key_buffer_size
Binlog_cache_size
複製代碼
(2)寫入參數
innodb_flush_log_at_trx_commit
innodb_buffer_pool_size
insert_buffer_size
innodb_double_write
innodb_write_io_thread
innodb_flush_method
複製代碼
(3)與IO相關的參數
innodb_write_io_threads = 8
innodb_read_io_threads = 8
innodb_thread_concurrency = 0
Sync_binlog
Innodb_flush_log_at_trx_commit
Innodb_lru_scan_depth
Innodb_io_capacity
Innodb_io_capacity_max
innodb_log_buffer_size
innodb_max_dirty_pages_pct
複製代碼
(4)緩存參數以及緩存的適用場景
query cache/query_cache_type
並非全部表都適合使用query cache。形成query cache失效的緣由主要是相應的table發生了變動
第一個:讀操做多的話看看比例,簡單來講,若是是用戶清單表,或者說是數據比例比較固定,好比說商品列表,是能夠打開的,前提是這些庫比較集中,數據庫中的實務比較小。
第二個:咱們「行騙」的時候,好比說咱們競標的時候壓測,把query cache打開,仍是能收到qps激增的效果,固然前提示前端的鏈接池什麼的都配置同樣。大部分狀況下若是寫入的居多,訪問量並很少,那麼就不要打開,例如社交網站的,10%的人產生內容,其他的90%都在消費,打開仍是效果很好的,可是你若是是qq消息,或者聊天,那就很要命。
第三個:小網站或者沒有高併發的無所謂,高併發下,會看到 不少 qcache 鎖 等待,因此通常高併發下,不建議打開query cache
12、你是如何監控大家的數據庫的?大家的慢日誌都是怎麼查詢的?
監控的工具備不少,例如zabbix,lepus,我這裏用的是lepus
十3、你是否作過主從一致性校驗,若是有,怎麼作的,若是沒有,你打算怎麼作?
主從一致性校驗有多種工具 例如checksum、mysqldiff、pt-table-checksum等
十4、表中有大字段X(例如:text類型),且字段X不會常常更新,以讀爲爲主,請問您是選擇拆成子表,仍是繼續放一塊兒?寫出您這樣選擇的理由
答:拆帶來的問題:鏈接消耗 + 存儲拆分空間;不拆可能帶來的問題:查詢性能;
若是能容忍拆分帶來的空間問題,拆的話最好和常常要查詢的表的主鍵在物理結構上放置在一塊兒(分區) 順序IO,減小鏈接消耗,最後這是一個文本列再加上一個全文索引來儘可能抵消鏈接消耗
若是能容忍不拆分帶來的查詢性能損失的話:上面的方案在某個極致條件下確定會出現問題,那麼不拆就是最好的選擇
十5、MySQL中InnoDB引擎的行鎖是經過加在什麼上完成(或稱實現)的?爲何是這樣子的?
例: select * from tab_with_index where id = 1 for update;
for update 能夠根據條件來完成行鎖鎖定,而且 id 是有索引鍵的列,
若是 id 不是索引鍵那麼InnoDB將完成表鎖,,併發將無從談起
十6、如何從mysqldump產生的全庫備份中只恢復某一個庫、某一張表?
全庫備份
[root@HE1 ~]# mysqldump -uroot -p --single-transaction -A --master-data=2 >dump.sql
只還原erp庫的內容
[root@HE1 ~]# mysql -uroot -pMANAGER erp --one-database <dump.sql
能夠看出這裏主要用到的參數是--one-database簡寫-o的參數,極大方便了咱們的恢復靈活性
那麼如何從全庫備份中抽取某張表呢,全庫恢復,再恢復某張表小庫還能夠,大庫就很麻煩了,那咱們能夠利用正則表達式來進行快速抽取,具體實現方法以下:
從全庫備份中抽取出t表的表結構
[root@HE1 ~]# sed -e'/./{H;$!d;}' -e 'x;/CREATE TABLE `t`/!d;q' dump.sql
DROP TABLE IF EXISTS`t`;
/*!40101 SET@saved_cs_client =@@character_set_client */;
/*!40101 SETcharacter_set_client = utf8 */;
CREATE TABLE `t` (
`id` int(10) NOT NULL AUTO_INCREMENT,
`age` tinyint(4) NOT NULL DEFAULT '0',
`name` varchar(30) NOT NULL DEFAULT '',
PRIMARY KEY (`id`)
) ENGINE=InnoDBAUTO_INCREMENT=4 DEFAULT CHARSET=utf8;
/*!40101 SETcharacter_set_client = @saved_cs_client */;
從全庫備份中抽取出t表的內容
[root@HE1 ~]# grep'INSERT INTO `t`' dump.sql
INSERT INTO `t`VALUES (0,0,''),(1,0,'aa'),(2,0,'bbb'),(3,25,'helei');
複製代碼
十7、在當前的工做中,你碰到到的最大的 mysql db 問題以及如何解決的?
能夠選擇一個處理過的比較棘手的案例,或者選擇一個老師在課程上講過的死鎖的案例;沒有及時 Purge + insert 惟一索引形成的死鎖:具體案例能夠參考學委筆記。
十8、請簡潔地描述下 MySQL 中 InnoDB 支持的四種事務隔離級別名稱,以及逐級之間的區別?
(1)事物的4種隔離級別
(2)不一樣級別的現象
Read Uncommitted:能夠讀取其餘 session 未提交的髒數據。
Read Committed:容許不可重複讀取,但不容許髒讀取。提交後,其餘會話能夠看到提交的數據。
Repeatable Read: 禁止不可重複讀取和髒讀取、以及幻讀(innodb 獨有)。
Serializable: 事務只能一個接着一個地執行,但不能併發執行。事務隔離級別最高。
不一樣的隔離級別有不一樣的現象,並有不一樣的鎖定/併發機制,隔離級別越高,數據庫的併發性就越差。
最後
歡迎你們關注個人公衆號【程序員追風】,文章都會在裏面更新,整理的資料也會放在裏面。
前端