像Facebook、開心001、人人網、優酷、豆瓣、淘寶等高流量、高併發的網站,單點數據庫很難支撐得住,WEB2.0類型的網站中使用MySQL的居多,要麼用MySQL自帶的MySQL NDB Cluster(MySQL5.0及以上版本支持MySQL NDB Cluster功能),或者用MySQL自帶的分區功能(MySQL5.1及以上版本支持分區功能),我所知道的使用這兩種方案的不多,通常使用主從複製,再加上MySQL Proxy實現負載均衡、讀寫分離等功能,在使用主從複製的基礎上,再使用垂直切分及水平切分;或者不使用主從複製,徹底使用垂直切分加上水平切分再加上相似Memcached的系統也能夠解決問題。html
1.優酷的經驗
數據庫採用水平擴展,主從複製,隨着從數據庫的增多,複製延遲愈來愈厲害,最終沒法忍受。
最終仍是採用數據庫的sharding,把一組用戶相關的表和數據放到一組數據庫上。
使用SSD來優化mysql的I/O,性能提高明顯,每塊16G,6塊SSD作RAID。
數據庫的類型選用MYISAM
數據庫的拆分策略,先縱向按照業務或者模塊拆分。對於一些特別大的表,再採用垂直拆分
根據用戶進行分片,儘量不要跨篇查詢。若是確實要跨片查詢,能夠考慮搜索的方案,先索引再搜索。
分佈式的數據庫方案太複雜,否掉。node
優酷使用的是數據庫分片技術,而拋棄了因爲數據量的愈來愈多致使複製延遲的問題。按照user_id進行分片,這樣必須有一個全局的表來管理用戶與shard的關係,根據user_id能夠獲得share_id,而後根據share_id去指定的分片查詢指定的數據。mysql
假如此表的表名爲sharding_manager,若是網站的用戶數太多,好比千萬級的或甚至更大好比億級的用 戶,此時此表也許也會成爲一個瓶頸,由於查詢會很是頻繁,全部的動態請求都要讀此表,這時能夠用其它的解決方案,好比用Memcached、Tokyo Cabinet、Berkeley DB或其它的性能更高的方案來解決。sql
具體怎麼定位到哪臺db服務器,定位到哪一個數據庫,定位到哪一個shard(就是userN,msgN,videoN),優酷網的架構文檔中說得不是很仔細,這裏只能猜想一下了。數據庫
根據優酷的架構圖,一共有2臺db服務器,每臺db服務器有2個數據庫,每一個數據庫有3個shard,這樣一共是2 * 2 * 3 = 12個shard。緩存
user_id通常是自增型字段,用戶註冊的時候能夠自動生成,而後看有幾臺db服務器,假若有m臺db服務器,則用 user_id % m即可以分配一臺db服務器(例如0對應100,1對應101,以此類推,字段mysql_server_ip的值肯定),假設每臺服務器有n個數據庫,則用user_id % n能夠定位到哪一個數據庫(字段database_name的值肯定),假設每一個數據庫有i個shard,則用user_id % i能夠定位到哪一個shard(字段shard_id的值肯定),這樣就能夠進行具體的數據庫操做了。服務器
user_id share_id mysql_server_ip database_name
101 2 192.168.1.100 shard_db1
105 0 192.168.1.100 shard_db2
108 0 192.168.1.101 shard_db3(或shard_db1)
110 1 192.168.1.101 shard_db4(或shard_db2)網絡
如上述user_id爲101的用戶,鏈接數據庫服務器192.168.1.100,使用其中的數據庫爲shard_db1,使用其中的表系列爲user2,msg2,video2架構
若是上述的m,n,i發生變化,好比網站的用戶不斷增加,須要增長db服務器,此時則須要進行數據庫遷移,關於遷移,參見這兒。併發
由於表位於不一樣的數據庫中,因此不一樣的數據庫中表名能夠相同
server1(192.168.1.100)
shard_db1
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
shard_db2
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
由於表位於不一樣的數據庫服務器中,因此不一樣的數據庫服務器中的數據庫名能夠相同
server2(192.168.1.101)
shard_db3(這裏也能夠用shard_db1)
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
shard_db4(這裏也能夠用shard_db2)
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
2.豆瓣的經驗
因爲從主庫到輔庫的複製須要時間
更新主庫後,下一個請求每每就是要讀數據(更新數據後刷新頁面)
從輔庫讀會致使cache裏存放的是舊數據(不知道這個cache具體指的是什麼,若是是Memcached的話,若是更新的數據的量很大,難道把全部更新過的數據都保存在Memcached裏面嗎?)
解決方法:更新數據庫後,在預期可能會立刻用到的狀況下,主動刷新緩存
不完美,but it works
豆瓣後來改成雙MySQL Master+Slave說是能解決Replication Delay的問題,不知道是怎麼解決的,具體不太清楚。
3.Facebook的經驗
下面一段內容引用自www.dbanotes.net
大量的 MySQL + Memcached 服務器,佈署簡示:
California (主 Write/Read)............. Virginia (Read Only)
主 數據中心在 California ,遠程中心在 Virginia 。這兩個中心網絡延遲就有 70ms,MySQL 數據複製延遲有的時候會達到 20ms. 若是要讓只讀的信息從 Virginia 端發起,Memcached 的 Cache 數據一致性就是個問題。1 用戶發起更新操做,改名 "Jason" 到 "Monkey" ;
2 主數據庫寫入 "Monkey",刪除主端 Memcached 中的名字值,但Virginia 端 Memcached 不刪;(這地方在 SQL 解析上做了一點手腳,把更新的操做"示意"給遠程);
3 在 Virginia 有人查看該用戶 Profile ;
4 在 Memcached 中找到鍵值,返回值 "Jason";
5 複製追上更新 Slave 數據庫用戶名字爲 "Monkey",刪除 Virginia Memcached 中的鍵值;
6 在 Virginia 有人查看該用戶 Profile ;
7 Memcache 中沒找到鍵值,因此從 Slave 中讀取,而後獲得正確的 "Monkey" 。
Via
從上面3能夠看出,也仍然存在數據延遲的問題。同時master中數據庫更新的時候不更新slave中的memcached,只是給slave發個通知,說數據已經改變了。
那是否是能夠這樣,當主服務器有數據更新時,當即更新從服務器中的Memcached中的數據,這樣即便有延遲,但延遲的時間應該更短了,基本上能夠忽略不計了。
4.Netlog的經驗
對於比較重要且必須實時的數據,好比用戶剛換密碼(密碼寫入 Master),而後用新密碼登陸(從 Slaves 讀取密碼),會形成密碼不一致,致使用戶短期內登陸出錯。因此在這種須要讀取實時數據的時候最好從 Master 直接讀取,避免 Slaves 數據滯後現象發生。還好,須要讀取實時數據的時候很少,好比用戶更改了郵件地址,就不必立刻讀取,因此這種 Master-Slaves 架構在多數狀況下仍是有效的。Via這篇文章。
個人相關日誌: