數據庫存數據時,邏輯上防重了爲啥還會出現重複記錄?

在不少異常狀況下,好比高併發、網絡糟糕的時候,數據庫裏偶爾會出現重複的記錄。mysql

假如如今有一張書籍表,結構相似這樣redis

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+

在異常狀況下,可能會出現下面這樣的記錄sql

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  2 | 人類簡史     |
|  3 | 人類簡史     |
+----+--------------+

可是,想了想,本身在處理相關數據的時候也加了判重的相關邏輯,好比,新增時當圖書 name 相同時,會提示圖書重複而返回。數據庫

初次遇到這個狀況的時候,感受有點摸不着頭腦,後面想了想,仍是理清了,其實這和數據庫的事務隔離級別有必定關係。json

先簡單說下數據庫事務的 4 個隔離級別,而後重現下上述問題,最後說說解決辦法。後端

1 數據庫事務的 4 個隔離級別

1.1 未提交讀

顧名思義,當事務隔離級別處於這個設置的時候,不一樣事務能讀取其它事務中未提交的數據。網絡

便於說明,我開了兩個客戶端(A 以及 B),並設置各自的隔離級別爲未提交讀。(並無全局設置)session

設置隔離級別命令併發

SET [SESSION | GLOBAL] TRANSACTION ISOLATION LEVEL {READ UNCOMMITTED | READ COMMITTED | REPEATABLE READ | SERIALIZABLE}

好了,開始。高併發

Client A

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;
Query OK, 0 rows affected (0.00 sec)

mysql> SELECT @@session.tx_isolation;
+------------------------+
| @@session.tx_isolation |
+------------------------+
| READ-UNCOMMITTED       |
+------------------------+
1 row in set (0.00 sec)

mysql> start transaction;
Query OK, 0 rows affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values('人類簡史');
Query OK, 1 row affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  4 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

當 A 中的事務沒有關閉的時候,咱們去 B 中看下數據

Client B

mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;
Query OK, 0 rows affected (0.00 sec)

mysql> SELECT @@session.tx_isolation;
+------------------------+
| @@session.tx_isolation |
+------------------------+
| READ-UNCOMMITTED       |
+------------------------+
1 row in set (0.00 sec)

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  4 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

B 中能夠讀取 A 未提交的數據,所謂未提交讀就是這樣。

最後,記得把各個事務提交。

Client A & Client B

mysql> commit;

1.2 提交讀

不能事務能夠讀取其它事務中已經提交的數據。

篇幅問題,這裏我就不貼出設置隔離級別的語句,測試某個隔離級別的時候,默認已經設置好該級別。

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values('人類簡史');
Query OK, 1 row affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  5 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

A 沒提交,在 B 裏面去看下數據

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

和預期同樣,A 中未提交的數據在 B 中看不到。

A 中提交事務

Client A

mysql> commit;

在 B 中看下

Client B

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  5 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.00 sec)

B 中能看到 A 中提交的數據。

1.3 可重複讀

細心的朋友可能會發現一個問題,那就是在 B 中的同一個事務讀同一個表,獲得的結果卻不一致,開始只有 1 條,後面有 2 條,而若是沒有這個問題的話,也就是可重複讀了。

咱們來驗證下

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) values('人類簡史');
Query OK, 1 row affected (0.01 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  6 | 人類簡史     |
+----+--------------+
2 rows in set (0.00 sec)

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

Client A

mysql> commit
Query OK, 0 rows affected (0.00 sec)

Client B

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

和預期一致。B 中事務沒有受到 A 中事務的提交影響,讀取的數據和事務剛開始的時候一致,books 中都只有一條數據,這就是可重複讀。

固然,B 在本身的事務中作修改,確定是可見的。

Client B

mysql> insert into books(name) value ('時間簡史');
Query OK, 1 row affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
|  8 | 時間簡史     |
+----+--------------+
2 rows in set (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.00 sec)

1.4 串行化

這是隔離級別最嚴格的一級,在該級別中,不一樣事務中的讀寫會相互阻塞。

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

當 A 未提交的時候在 B 中對同一個表進行寫

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books;
+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+
1 row in set (0.00 sec)

mysql> insert into books(name) value ('人類簡史');
ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction

因爲不一樣事務中的讀寫相互阻塞,因此出現了上面超時的狀況。

若是 A 中提交事務

Client A

mysql> commit;
Query OK, 0 rows affected (0.00 sec)

那麼在 B 中就能正常寫了

Client B

mysql> insert into books(name) value ('人類簡史');
Query OK, 1 row affected (0.00 sec)

mysql> commit;
Query OK, 0 rows affected (0.01 sec)

同理,在 A 中開啓事務並向 books 中插入一條記錄後不提交,B 中開啓事務並對該表進行讀操做,也會超時。當 A 中的事務提交後,B 中對 books 的讀操做就沒有問題了。

2 重現問題

因爲 MySQL 的 Innodb 的默認事務隔離級別爲可重複讀,也就致使了判重邏輯可能會出現問題,咱們來重現一下。

如今,數據庫的數據是這樣的

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
+----+--------------+

後端邏輯相似這樣的

try:
    book_name = '人類簡史'
    book = get_by_name(book_name)
    if book:
        raise Exception(f'圖書 {book_name} 已存在')

    # 新增操做
    # 其它操做

    db.session.commit()
    return {'success': True}
except Exception as e:
    db.session.rollback()
    return {'success': False, 'msg': f'新增圖書失敗 {e}'}

當兩個用戶輸入書名「人類簡史」並提交後,同時有兩個線程執行這段邏輯,也就至關於上面兩個客戶端同時開啓了事務,咱們以這兩個客戶端來講明問題

Client A

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books where name = '人類簡史';
Empty set (0.00 sec)

mysql> insert into books(name) values('人類簡史');
Query OK, 1 row affected (0.00 sec)

A 中檢測圖書不存在,而後插入,可是因爲「其它操做」因爲網絡或者其它緣由太費時間,致使事務提交延遲。

這時在 B 中執行相似操做

Client B

mysql> start transaction;
Query OK, 0 rows affected (0.00 sec)

mysql> select * from books where name = '人類簡史';
Empty set (0.00 sec)

mysql> insert into books(name) values('人類簡史');
Query OK, 1 row affected (0.00 sec)

因爲事務隔離級別是可重複讀的,B 中沒法讀取 A 中未提交的數據,因此判重邏輯順利經過,也插入了同一本書。(也就是說隔離級別在提交讀及以上都有可能出現這個問題)

最後 A 和 B 都提交後

Client A & Clinet B

mysql> commit;
Query OK, 0 rows affected (0.01 sec)

就出現了重複記錄了

+----+--------------+
| id | name         |
+----+--------------+
|  1 | 世界簡史     |
| 12 | 人類簡史     |
| 13 | 人類簡史     |
+----+--------------+

3 怎麼解決

3.1 數據庫層面

從底層進行限制,對 name 添加惟一索引後,插入重複記錄會報錯,簡單粗暴的解決了這個問題。

3.2 代碼層面

加惟一索引能解決,可是總以爲代碼不夠完整,其實在代碼層面也能夠解決這個問題。

若是咱們在接收請求的時候若是碰到關鍵參數相同的請求,咱們能夠直接拒絕,返回相似「操做進行中」的響應,這樣也就從源頭上解決了這個問題。

實現上面的思路也很簡單,藉助 redis 的 setnx 便可。

book_name = request.form.get('book_name', '')
if not book_name:
    reutrn json.dumps({'success': False, 'msg': '請填寫書名'})

redis_key = f'add_book_{book_name}'
set_res = redis_client.setnx(redis_key, 1)
if not set_res:
    reutrn json.dumps({'success': False, 'msg': '操做進行中'})

add_res = add_book(book_name)  # 添加操做

redis_client.delete(redis_key)
return json.dumps(add_res)

若是相似場景比較多,能夠考慮把 redis 的操做封裝成一個裝飾器,讓代碼能複用起來,這裏再也不贅述。

4 小結

因爲數據庫隔離級別的緣由,一些數據就算是邏輯上進行防重了,也有可能出現重複記錄。解決這個問題,能夠在數據庫層面加惟一索引解決,也能夠在代碼層面進行解決。

原文博客:www.kevinbai.com
關注「小小後端」公衆號,更多幹貨等着你喔!

相關文章
相關標籤/搜索