史上最全的BAT Mysql面試題在這裏

一、MySQL的複製原理以及流程前端

基本原理流程,3個線程以及之間的關聯;mysql

主:binlog線程——記錄下全部改變了數據庫數據的語句,放進master上的binlog中;面試

從:io線程——在使用start slave 以後,負責從master上拉取 binlog 內容,放進 本身的relay log中;sql

從:sql執行線程——執行relay log中的語句;數據庫

二、MySQL中myisam與innodb的區別,至少5點緩存

(1)、問5點不一樣;安全

1>.InnoDB支持事物,而MyISAM不支持事物服務器

2>.InnoDB支持行級鎖,而MyISAM支持表級鎖網絡

3>.InnoDB支持MVCC, 而MyISAM不支持數據結構

4>.InnoDB支持外鍵,而MyISAM不支持

5>.InnoDB不支持全文索引,而MyISAM支持。

(2)、innodb引擎的4大特性

插入緩衝(insert buffer),二次寫(double write),自適應哈希索引(ahi),預讀(read ahead)

(3)、二者selectcount(*)哪一個更快,爲何

myisam更快,由於myisam內部維護了一個計數器,能夠直接調取。

三、MySQL中varchar與char的區別以及varchar(50)中的50表明的涵義

(1)、varchar與char的區別

char是一種固定長度的類型,varchar則是一種可變長度的類型

(2)、varchar(50)中50的涵義

最多存放50個字符,varchar(50)和(200)存儲hello所佔空間同樣,但後者在排序時會消耗更多內存,由於order by col採用fixed_length計算col長度(memory引擎也同樣)

(3)、int(20)中20的涵義

是指顯示字符的長度

但要加參數的,最大爲255,好比它是記錄行數的id,插入10筆資料,它就顯示00000000001 ~~~00000000010,當字符的位數超過11,它也只顯示11位,若是你沒有加那個讓它未滿11位就前面加0的參數,它不會在前面加0

20表示最大顯示寬度爲20,但仍佔4字節存儲,存儲範圍不變;

(4)、mysql爲何這麼設計

對大多數應用沒有意義,只是規定一些工具用來顯示字符的個數;int(1)和int(20)存儲和計算均同樣;

四、問了innodb的事務與日誌的實現方式

(1)、有多少種日誌;

錯誤日誌:記錄出錯信息,也記錄一些警告信息或者正確的信息。

查詢日誌:記錄全部對數據庫請求的信息,不論這些請求是否獲得了正確的執行。

慢查詢日誌:設置一個閾值,將運行時間超過該值的全部SQL語句都記錄到慢查詢的日誌文件中。

二進制日誌:記錄對數據庫執行更改的全部操做。

中繼日誌:

事務日誌:

(2)、事物的4種隔離級別

隔離級別

讀未提交(RU)

讀已提交(RC)

可重複讀(RR)

串行

(3)、事務是如何經過日誌來實現的,說得越深刻越好。

事務日誌是經過redo和innodb的存儲引擎日誌緩衝(Innodb log buffer)來實現的,當開始一個事務的時候,會記錄該事務的lsn(log sequence number)號; 當事務執行時,會往InnoDB存儲引擎的日誌的日誌緩存裏面插入事務日誌;當事務提交時,必須將存儲引擎的日誌緩衝寫入磁盤(經過innodb_flush_log_at_trx_commit來控制),也就是寫數據前,須要先寫日誌。這種方式稱爲「預寫日誌方式」

五、MySQL binlog的幾種日誌錄入格式以及區別

Statement:每一條會修改數據的sql都會記錄在binlog中。

優勢:不須要記錄每一行的變化,減小了binlog日誌量,節約了IO,提升性能。(相比row能節約多少性能 與日誌量,這個取決於應用的SQL狀況,正常同一條記錄修改或者插入row格式所產生的日誌量還小於Statement產生的日誌量,可是考慮到若是帶條 件的update操做,以及整表刪除,alter表等操做,ROW格式會產生大量日誌,所以在考慮是否使用ROW格式日誌時應該跟據應用的實際狀況,其所 產生的日誌量會增長多少,以及帶來的IO性能問題。)

缺點:因爲記錄的只是執行語句,爲了這些語句能在slave上正確運行,所以還必須記錄每條語句在執行的時候的 一些相關信息,以保證全部語句能在slave獲得和在master端執行時候相同 的結果。另外mysql 的複製,像一些特定函數功能,slave可與master上要保持一致會有不少相關問題(如sleep()函數, last_insert_id(),以及user-defined functions(udf)會出現問題).

使用如下函數的語句也沒法被複制:

LOAD_FILE()

UUID()

USER()

FOUND_ROWS()

SYSDATE() (除非啓動時啓用了 --sysdate-is-now 選項)

同時在INSERT …SELECT 會產生比 RBR 更多的行級鎖

2.Row:不記錄sql語句上下文相關信息,僅保存哪條記錄被修改。

優勢: binlog中能夠不記錄執行的sql語句的上下文相關的信息,僅須要記錄那一條記錄被修改爲什麼了。因此rowlevel的日誌內容會很是清楚的記錄下 每一行數據修改的細節。並且不會出現某些特定狀況下的存儲過程,或function,以及trigger的調用和觸發沒法被正確複製的問題

缺點:全部的執行的語句當記錄到日誌中的時候,都將以每行記錄的修改來記錄,這樣可能會產生大量的日誌內容,比 如一條update語句,修改多條記錄,則binlog中每一條修改都會有記錄,這樣形成binlog日誌量會很大,特別是當執行alter table之類的語句的時候,因爲表結構修改,每條記錄都發生改變,那麼該表每一條記錄都會記錄到日誌中。

3.Mixedlevel: 是以上兩種level的混合使用,通常的語句修改使用statment格式保存binlog,如一些函數,statement沒法完成主從複製的操做,則 採用row格式保存binlog,MySQL會根據執行的每一條具體的sql語句來區分對待記錄的日誌形式,也就是在Statement和Row之間選擇 一種.新版本的MySQL中隊row level模式也被作了優化,並非全部的修改都會以row level來記錄,像遇到表結構變動的時候就會以statement模式來記錄。至於update或者delete等修改數據的語句,仍是會記錄全部行的 變動。

六、MySQL數據庫cpu飆升到500%的話他怎麼處理?

一、列出全部進程 show processlist,觀察全部進程 ,多秒沒有狀態變化的(幹掉)

二、查看超時日誌或者錯誤日誌 (作了幾年開發,通常會是查詢以及大批量的插入會致使cpu與i/o上漲,固然不排除網絡狀態忽然斷了,,致使一個請求服務器只接受到一半,好比where子句或分頁子句沒有發送,,固然的一次被坑經歷)

七、sql優化各類方法

(1)、explain出來的各類item的意義;

select_type

表示查詢中每一個select子句的類型

type

表示MySQL在表中找到所需行的方式,又稱「訪問類型」

possible_keys

指出MySQL能使用哪一個索引在表中找到行,查詢涉及到的字段上若存在索引,則該索引將被列出,但不必定被查詢使用

key

顯示MySQL在查詢中實際使用的索引,若沒有使用索引,顯示爲NULL

key_len

表示索引中使用的字節數,可經過該列計算查詢中使用的索引的長度

ref

表示上述表的鏈接匹配條件,即哪些列或常量被用於查找索引列上的值

Extra

包含不適合在其餘列中顯示但十分重要的額外信息

(2)、profile的意義以及使用場景;

查詢到 SQL 會執行多少時間, 並看出 CPU/Memory 使用量, 執行過程當中 Systemlock, Table lock 花多少時間等等

八、備份計劃,mysqldump以及xtranbackup的實現原理

(1)、備份計劃;

這裏每一個公司都不同,您別說那種1小時1全備什麼的就行

(2)、備份恢復時間;

這裏跟機器,尤爲是硬盤的速率有關係,如下列舉幾個僅供參考

20G的2分鐘(mysqldump)

80G的30分鐘(mysqldump)

111G的30分鐘(mysqldump)

288G的3小時(xtra)

3T的4小時(xtra)

邏輯導入時間通常是備份時間的5倍以上

(3)、xtrabackup實現原理

在InnoDB內部會維護一個redo日誌文件,咱們也能夠叫作事務日誌文件。事務日誌會存儲每個InnoDB表數據的記錄修改。當InnoDB啓動時,InnoDB會檢查數據文件和事務日誌,並執行兩個步驟:它應用(前滾)已經提交的事務日誌到數據文件,並將修改過但沒有提交的數據進行回滾操做。

九、mysqldump中備份出來的sql,若是我想sql文件中,一行只有一個insert….value()的話,怎麼辦?若是備份須要帶上master的複製點信息怎麼辦?

--skip-extended-insert

[root@helei-zhuanshu ~]# mysqldump -uroot -p helei --skip-extended-insert

Enter password:

KEY `idx_c1` (`c1`),

KEY `idx_c2` (`c2`)

) ENGINE=InnoDB AUTO_INCREMENT=51 DEFAULT CHARSET=latin1;

/*!40101 SET character_set_client = @saved_cs_client */;

--

-- Dumping data for table `helei`

--

LOCK TABLES `helei` WRITE;

/*!40000 ALTER TABLE `helei` DISABLE KEYS */;

INSERT INTO `helei` VALUES (1,32,37,38,'2016-10-18 06:19:24','susususususususususususu');

INSERT INTO `helei` VALUES (2,37,46,21,'2016-10-18 06:19:24','susususususu');

INSERT INTO `helei` VALUES (3,21,5,14,'2016-10-18 06:19:24','susu');

十、500臺db,在最快時間以內重啓

puppet,dsh

十一、innodb的讀寫參數優化

(1)、讀取參數

global buffer pool以及 local buffer;

(2)、寫入參數;

innodb_flush_log_at_trx_commit

innodb_buffer_pool_size

(3)、與IO相關的參數;

innodb_write_io_threads = 8

innodb_read_io_threads = 8

innodb_thread_concurrency = 0

(4)、緩存參數以及緩存的適用場景。

query cache/query_cache_type

並非全部表都適合使用query cache。形成query cache失效的緣由主要是相應的table發生了變動

第一個:讀操做多的話看看比例,簡單來講,若是是用戶清單表,或者說是數據比例比較固定,好比說商品列表,是能夠打開的,前提是這些庫比較集中,數據庫中的實務比較小。

第二個:咱們「行騙」的時候,好比說咱們競標的時候壓測,把query cache打開,仍是能收到qps激增的效果,固然前提示前端的鏈接池什麼的都配置同樣。大部分狀況下若是寫入的居多,訪問量並很少,那麼就不要打開,例如社交網站的,10%的人產生內容,其他的90%都在消費,打開仍是效果很好的,可是你若是是qq消息,或者聊天,那就很要命。

第三個:小網站或者沒有高併發的無所謂,高併發下,會看到 不少 qcache 鎖 等待,因此通常高併發下,不建議打開query cache

十二、你是如何監控大家的數據庫的?大家的慢日誌都是怎麼查詢的?

監控的工具備不少,例如zabbix,lepus,我這裏用的是lepus

1三、你是否作過主從一致性校驗,若是有,怎麼作的,若是沒有,你打算怎麼作?

主從一致性校驗有多種工具 例如checksum、mysqldiff、pt-table-checksum等

1四、大家數據庫是否支持emoji表情,若是不支持,如何操做?

若是是utf8字符集的話,須要升級至utf8_mb4方可支持

1五、你是如何維護數據庫的數據字典的?

這個你們維護的方法都不一樣,我通常是直接在生產庫進行註釋,利用工具導出成excel方便流通。

1六、表中有大字段X(例如:text類型),且字段X不會常常更新,以讀爲爲主,請問

拆帶來的問題:鏈接消耗 + 存儲拆分空間;不拆可能帶來的問題:查詢性能;

一、若是能容忍拆分帶來的空間問題,拆的話最好和常常要查詢的表的主鍵在物理結構上放置在一塊兒(分區) 順序IO,減小鏈接消耗,最後這是一個文本列再加上一個全文索引來儘可能抵消鏈接消耗

二、若是能容忍不拆分帶來的查詢性能損失的話:上面的方案在某個極致條件下確定會出現問題,那麼不拆就是最好的選擇

1七、MySQL中InnoDB引擎的行鎖是經過加在什麼上完成(或稱實現)的?爲何是這樣子的?

InnoDB是基於索引來完成行鎖

例: select * from tab_with_index where id = 1 for update;

for update 能夠根據條件來完成行鎖鎖定,而且 id 是有索引鍵的列,

若是 id 不是索引鍵那麼InnoDB將完成表鎖,,併發將無從談起

1八、開放性問題:聽說是騰訊的

一個6億的表a,一個3億的表b,經過外間tid關聯,你如何最快的查詢出知足條件的第50000到第50200中的這200條數據記錄。

一、若是A表TID是自增加,而且是連續的,B表的ID爲索引

select * from a,b where a.tid = b.id and a.tid>500000 limit 200;

二、若是A表的TID不是連續的,那麼就須要使用覆蓋索引.TID要麼是主鍵,要麼是輔助索引,B表ID也須要有索引。

select * from b , (select tid from a limit 50000,200) a where b.id = a .tid;

1九、什麼是存儲過程?有哪些優缺點?

存儲過程是一些預編譯的SQL語句。

一、更加直白的理解:存儲過程能夠說是一個記錄集,它是由一些T-SQL語句組成的代碼塊,這些T-SQL語句代碼像一個方法同樣實現一些功能(對單表或多表的增刪改查),而後再給這個代碼塊取一個名字,在用到這個功能的時候調用他就好了。

二、存儲過程是一個預編譯的代碼塊,執行效率比較高,一個存儲過程替代大量T_SQL語句 ,能夠下降網絡通訊量,提升通訊速率,能夠必定程度上確保數據安全

20、索引是什麼?有什麼做用以及優缺點?

一、索引是對數據庫表中一或多個列的值進行排序的結構,是幫助MySQL高效獲取數據的數據結構

二、索引就是加快檢索表中數據的方法。數據庫的索引相似於書籍的索引。在書籍中,索引容許用戶沒必要翻閱完整個書就能迅速地找到所須要的信息。在數據庫中,索引也容許數據庫程序迅速地找到表中的數據,而沒必要掃描整個數據庫。

MySQL數據庫幾個基本的索引類型:普通索引、惟一索引、主鍵索引、全文索引

一、索引加快數據庫的檢索速度

二、索引下降了插入、刪除、修改等維護任務的速度

三、惟一索引能夠確保每一行數據的惟一性

四、經過使用索引,能夠在查詢的過程當中使用優化隱藏器,提升系統的性能

五、索引須要佔物理和數據空間

2一、什麼是事務?

事務(Transaction)是併發控制的基本單位。所謂的事務,它是一個操做序列,這些操做要麼都執行,要麼都不執行,它是一個不可分割的工做單位。事務是數據庫維護數據一致性的單位,在每一個事務結束時,都能保持數據一致性。

2四、數據庫的樂觀鎖和悲觀鎖是什麼?

數據庫管理系統(DBMS)中的併發控制的任務是確保在多個事務同時存取數據庫中同一數據時不破壞事務的隔離性和統一性以及數據庫的統一性。樂觀併發控制(樂觀鎖)和悲觀併發控制(悲觀鎖)是併發控制主要採用的技術手段。

悲觀鎖:假定會發生併發衝突,屏蔽一切可能違反數據完整性的操做

樂觀鎖:假設不會發生併發衝突,只在提交操做時檢查是否違反數據完整性。

2二、使用索引查詢必定能提升查詢的性能嗎?爲何

一般,經過索引查詢數據比全表掃描要快.可是咱們也必須注意到它的代價.

一、索引須要空間來存儲,也須要按期維護, 每當有記錄在表中增減或索引列被修改時,索引自己也會被修改. 這意味着每條記錄的INSERT,DELETE,UPDATE將爲此多付出4,5 次的磁盤I/O. 由於索引須要額外的存儲空間和處理,那些沒必要要的索引反而會使查詢反應時間變慢.使用索引查詢不必定能提升查詢性能,索引範圍查詢(INDEX RANGE SCAN)適用於兩種狀況:

二、基於一個範圍的檢索,通常查詢返回結果集小於表中記錄數的30%

三、基於非惟一性索引的檢索

2三、簡單說一說drop、delete與truncate的區

SQL中的drop、delete、truncate都表示刪除,可是三者有一些差異

一、delete和truncate只刪除表的數據不刪除表的結構

二、速度,通常來講: drop> truncate >delete

三、delete語句是dml,這個操做會放到rollback segement中,事務提交以後才生效;

四、若是有相應的trigger,執行的時候將被觸發. truncate,drop是ddl, 操做當即生效,原數據不放到rollback segment中,不能回滾. 操做不觸發trigger.

2四、drop、delete與truncate分別在什麼場景之下使用?

一、再也不須要一張表的時候,用drop

二、想刪除部分數據行時候,用delete,而且帶上where子句

三、保留表而刪除全部數據的時候用truncate

2五、超鍵、候選鍵、主鍵、外鍵分別是什麼?

一、超鍵:在關係中能惟一標識元組的屬性集稱爲關係模式的超鍵。一個屬性能夠爲做爲一個超鍵,多個屬性組合在一塊兒也能夠做爲一個超鍵。超鍵包含候選鍵和主鍵。

二、候選鍵:是最小超鍵,即沒有冗餘元素的超鍵。

三、主鍵:數據庫表中對儲存數據對象予以惟一和完整標識的數據列或屬性的組合。一個數據列只能有一個主鍵,且主鍵的取值不能缺失,即不能爲空值(Null)。

四、外鍵:在一個表中存在的另外一個表的主鍵稱此表的外鍵。

2六、什麼是視圖?以及視圖的使用場景有哪些?

一、視圖是一種虛擬的表,具備和物理表相同的功能。能夠對視圖進行增,改,查,操做,試圖一般是有一個表或者多個表的行或列的子集。對視圖的修改不影響基本表。它使得咱們獲取數據更容易,相比多表查詢。

二、只暴露部分字段給訪問者,因此就建一個虛表,就是視圖。

三、查詢的數據來源於不一樣的表,而查詢者但願以統一的方式查詢,這樣也能夠創建一個視圖,把多個表查詢結果聯合起來,查詢者只須要直接從視圖中獲取數據,沒必要考慮數據來源於不一樣表所帶來的差別

2七、說一說三個範式。

第一範式(1NF):數據庫表中的字段都是單一屬性的,不可再分。這個單一屬性由基本類型構成,包括整型、實數、字符型、邏輯型、日期型等。第二範式(2NF):數據庫表中不存在非關鍵字段對任一候選關鍵字段的部分函數依賴(部分函數依賴指的是存在組合關鍵字中的某些字段決定非關鍵字段的狀況),也即全部非關鍵字段都徹底依賴於任意一組候選關鍵字。第三範式(3NF):在第二範式的基礎上,數據表中若是不存在非關鍵字段對任一候選關鍵字段的傳遞函數依賴則符合第三範式。所謂傳遞函數依賴,指的是如 果存在"A → B → C"的決定關係,則C傳遞函數依賴於A。所以,知足第三範式的數據庫表應該不存在以下依賴關係: 關鍵字段 → 非關鍵字段 x → 非關鍵字段y

歡迎工做一到十年的Java工程師朋友們加入Java進階高級架構裙:858327216

本羣提供免費的學習指導 架構資料 以及免費的解答

不懂得問題均可以在本羣提出來 以後還會有職業生涯規劃以及面試指導

相關文章
相關標籤/搜索