在mysql中設計表的時候,mysql官方推薦不要使用uuid或者不連續不重複的雪花id(long形且惟一,單機遞增),而是推薦連續自增的主鍵id,官方的推薦是auto\_increment,那麼爲何不建議採用uuid,使用uuid究竟有什麼壞處?java
本篇博客咱們就來分析這個問題,探討一下內部的緣由。mysql
本篇博客的目錄面試
分別是user\_auto\_key,user\_uuid,user\_random\_key,分別表示自動增加的主鍵,uuid做爲主鍵,隨機key做爲主鍵,其它咱們徹底保持不變.算法
根據控制變量法,咱們只把每一個表的主鍵使用不一樣的策略生成,而其餘的字段徹底同樣,而後測試一下表的插入速度和查詢速度:spring
注:這裏的隨機key實際上是指用雪花算法算出來的先後不連續不重複無規律的id:一串18位長度的long值
id自動生成表:sql
用戶uuid表數據庫
隨機主鍵表:後端
技術框架:springboot+jdbcTemplate+junit+hutool,程序的原理就是鏈接本身的測試數據庫,而後在相同的環境下寫入同等數量的數據,來分析一下insert插入的時間來進行綜合其效率,爲了作到最真實的效果,全部的數據採用隨機生成,好比名字、郵箱、地址都是隨機生成。api
搜索Java知音公衆號,回覆「後端面試」,送你一份Java面試題寶典緩存
`package com.wyq.mysqldemo;` `import cn.hutool.core.collection.CollectionUtil;` `import com.wyq.mysqldemo.databaseobject.UserKeyAuto;` `import com.wyq.mysqldemo.databaseobject.UserKeyRandom;` `import com.wyq.mysqldemo.databaseobject.UserKeyUUID;` `import com.wyq.mysqldemo.diffkeytest.AutoKeyTableService;` `import com.wyq.mysqldemo.diffkeytest.RandomKeyTableService;` `import com.wyq.mysqldemo.diffkeytest.UUIDKeyTableService;` `import com.wyq.mysqldemo.util.JdbcTemplateService;` `import org.junit.jupiter.api.Test;` `import org.springframework.beans.factory.annotation.Autowired;` `import org.springframework.boot.test.context.SpringBootTest;` `import org.springframework.util.StopWatch;` `import java.util.List;` `@SpringBootTest` `class MysqlDemoApplicationTests {` `@Autowired` `private JdbcTemplateService jdbcTemplateService;` `@Autowired` `private AutoKeyTableService autoKeyTableService;` `@Autowired` `private UUIDKeyTableService uuidKeyTableService;` `@Autowired` `private RandomKeyTableService randomKeyTableService;` `@Test` `void testDBTime() {` `StopWatch stopwatch = new StopWatch("執行sql時間消耗");` `/**` `* auto_increment key任務` `*/` `final String insertSql = "INSERT INTO user_key_auto(user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?)";` `List<UserKeyAuto> insertData = autoKeyTableService.getInsertData();` `stopwatch.start("自動生成key表任務開始");` `long start1 = System.currentTimeMillis();` `if (CollectionUtil.isNotEmpty(insertData)) {` `boolean insertResult = jdbcTemplateService.insert(insertSql, insertData, false);` `System.out.println(insertResult);` `}` `long end1 = System.currentTimeMillis();` `System.out.println("auto key消耗的時間:" + (end1 - start1));` `stopwatch.stop();` `/**` `* uudID的key` `*/` `final String insertSql2 = "INSERT INTO user_uuid(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";` `List<UserKeyUUID> insertData2 = uuidKeyTableService.getInsertData();` `stopwatch.start("UUID的key表任務開始");` `long begin = System.currentTimeMillis();` `if (CollectionUtil.isNotEmpty(insertData)) {` `boolean insertResult = jdbcTemplateService.insert(insertSql2, insertData2, true);` `System.out.println(insertResult);` `}` `long over = System.currentTimeMillis();` `System.out.println("UUID key消耗的時間:" + (over - begin));` `stopwatch.stop();` `/**` `* 隨機的long值key` `*/` `final String insertSql3 = "INSERT INTO user_random_key(id,user_id,user_name,sex,address,city,email,state) VALUES(?,?,?,?,?,?,?,?)";` `List<UserKeyRandom> insertData3 = randomKeyTableService.getInsertData();` `stopwatch.start("隨機的long值key表任務開始");` `Long start = System.currentTimeMillis();` `if (CollectionUtil.isNotEmpty(insertData)) {` `boolean insertResult = jdbcTemplateService.insert(insertSql3, insertData3, true);` `System.out.println(insertResult);` `}` `Long end = System.currentTimeMillis();` `System.out.println("隨機key任務消耗時間:" + (end - start));` `stopwatch.stop();` `String result = stopwatch.prettyPrint();` `System.out.println(result);` `}`
user\_key\_auto寫入結果:
user\_random\_key寫入結果:
user\_uuid表寫入結果:
在已有數據量爲130W的時候:咱們再來測試一下插入10w數據,看看會有什麼結果:
能夠看出在數據量100W左右的時候,uuid的插入效率墊底,而且在後序增長了130W的數據,uudi的時間又直線降低。
時間佔用量整體能夠打出的效率排名爲:auto\_key>random\_key>uuid,uuid的效率最低,在數據量較大的狀況下,效率直線下滑。那麼爲何會出現這樣的現象呢?帶着疑問,咱們來探討一下這個問題:
自增的主鍵的值是順序的,因此Innodb把每一條記錄都存儲在一條記錄的後面。當達到頁面的最大填充因子時候(innodb默認的最大填充因子是頁大小的15/16,會留出1/16的空間留做之後的 修改):
①下一條記錄就會寫入新的頁中,一旦數據按照這種順序的方式加載,主鍵頁就會近乎於順序的記錄填滿,提高了頁面的最大填充率,不會有頁的浪費
②新插入的行必定會在原有的最大數據行下一行,mysql定位和尋址很快,不會爲計算新行的位置而作出額外的消耗
③減小了頁分裂和碎片的產生
由於uuid相對順序的自增id來講是毫無規律可言的,新行的值不必定要比以前的主鍵的值要大,因此innodb沒法作到老是把新行插入到索引的最後,而是須要爲新行尋找新的合適的位置從而來分配新的空間。
這個過程須要作不少額外的操做,數據的毫無順序會致使數據分佈散亂,將會致使如下的問題:
①寫入的目標頁極可能已經刷新到磁盤上而且從緩存上移除,或者尚未被加載到緩存中,innodb在插入以前不得不先找到並從磁盤讀取目標頁到內存中,這將致使大量的隨機IO
②由於寫入是亂序的,innodb不得不頻繁的作頁分裂操做,以便爲新的行分配空間,頁分裂致使移動大量的數據,一次插入最少須要修改三個頁以上
③因爲頻繁的頁分裂,頁會變得稀疏並被不規則的填充,最終會致使數據會有碎片
在把隨機值(uuid和雪花id)載入到聚簇索引(innodb默認的索引類型)之後,有時候會須要作一次OPTIMEIZE TABLE來重建表並優化頁的填充,這將又須要必定的時間消耗。
結論:使用innodb應該儘量的按主鍵的自增順序插入,而且儘量使用單調的增長的聚簇鍵的值來插入新行
搜索Java知音公衆號,回覆「後端面試」,送你一份Java面試題寶典
那麼使用自增的id就徹底沒有壞處了嗎?並非,自增id也會存在如下幾點問題:
①別人一旦爬取你的數據庫,就能夠根據數據庫的自增id獲取到你的業務增加信息,很容易分析出你的經營狀況
②對於高併發的負載,innodb在按主鍵進行插入的時候會形成明顯的鎖爭用,主鍵的上界會成爲爭搶的熱點,由於全部的插入都發生在這裏,併發插入會致使間隙鎖競爭
③Auto\_Increment鎖機制會形成自增鎖的搶奪,有必定的性能損失
附:Auto\_increment的鎖爭搶問題,若是要改善須要調優innodb\_autoinc\_lock\_mode的配置
本篇博客首先從開篇的提出問題,建表到使用jdbcTemplate去測試不一樣id的生成策略在大數據量的數據插入表現,而後分析了id的機制不一樣在mysql的索引結構以及優缺點,深刻的解釋了爲什麼uuid和隨機不重複id在數據插入中的性能損耗,詳細的解釋了這個問題。
在實際的開發中仍是根據mysql的官方推薦最好使用自增id,mysql博大精深,內部還有不少值得優化的點須要咱們學習。