2019年雙11來了。1分36秒100億,5分25秒超過300億,12分49秒超500億……若是沒有雙11,中國的互聯網技術要發展到今天的水平,或許要再多花20年。數據庫
從雙11誕生至今的11年裏,有一個場景始終在支付寶技術團隊之中循環往復——每年肯定目標時,你們都將信將疑,或驚呼或腹誹:「不可能!太誇張了吧!」但每年的誇張目標,到最後都能奇蹟般地成爲現實。服務器
前一年須要拼命躍起纔可以到的果實,後一年就會成爲再普通不過的平常。不知不覺之間,雙11已經從最初啓航時的小船,成爲了承載數十億人快樂和夢想的鉅艦。在這個舉世矚目的「奇蹟工程」背後,是技術和技術人一塊兒,十餘年如一日,以難以置信的「中國速度」在不知疲倦地向前奔跑。架構
技術人的初衷每每極致單純——既然決定要作,那就盡心盡力,勇往直前,但當他們一步一個腳印風雨兼程地走來,驀然回首,就發現奇蹟已經在那裏了。app
2009年11月11日,對於支付寶工程師陳亮而言,原本是與往常沒有任何不一樣的一天。運維
那年尚未支付寶大樓,更沒有Z空間,他趟過早高峯的車流,坐到華星時代廣場的工位上時,一封來自CTO程立的郵件發到了他的電腦裏:今天淘寶商城要搞一個促銷活動,預估交易量比較大,你們盯着點系統。分佈式
陳亮當時所在的團隊主要職責是保障整個系統的穩定可靠。在促銷活動的場景下,通俗地說來,就是要保障服務器「堅挺」,別被蜂擁而來的用戶擠爆了。工具
淘寶商城在2009年的8月剛剛重組上線,日均交易量對於當時的支付寶而言,要穩穩接住不在話下。就算搞促銷臨時出現洪峯,不怕,擴容就好。性能
事實上也就是這麼操做的。全團隊的同窗聚在辦公室裏,盯着電腦屏幕,只要發現交易量逼近系統承載上限,就立刻進行擴容。測試
交易量的上漲有點不尋常,一片安靜的辦公室裏原本只有鍵盤聲,突然有人高喊一聲:「我秒到了!」緊接着又有人跟着喊:「我也秒到了!」辦公室裏嗡地一下,熱鬧了起來。優化
原來有人很好奇淘寶商城究竟在作什麼促銷讓交易量漲成這樣,點過去一看,發現有折扣高達50%以上的「秒殺」,忍不住出手一試。
「已經想不起當時究竟秒到了什麼,只記得你們都特別快樂。」陳亮說。
快樂,是陳亮對於這個促銷活動最初、也最鮮明的印象。
不過除了一成天都忙於擴容的同窗以外,當時支付寶的大多數人都對這場促銷並沒有感知。「過後才知道前一天有促銷,同事說流量有點猛。」如今已成爲螞蟻金服研究員的李俊奎說,運維負責人很緊張地在次日的覆盤會議上提出「抗議」:「淘寶商城那邊在搞什麼?支付量一會兒提高了這麼多,萬一咱們提早準備的量不夠,就危險了。」
淘寶商城搞了什麼?站在今天回頭去看,他們只是搞了一件不算很大的事:在「光棍節」當天,聯合27個品牌作了一場促銷活動,單日GMV 5000萬。
當時沒有任何人可以預計這個促銷活動往後會成長爲何模樣,不過支付寶從數據的增加之中嗅到了山雨欲來的氣息:這個活動帶來的交易峯值超過平日的5倍,雖然此次平穩過關,但已經逼近了當時支付寶的承載極限。
2010年的年中剛過,支付寶就去跟淘寶商城通氣:去年那個促銷,今年還搞嗎?淘寶商城說,搞。
好漢不打無準備之仗,如何籌備「雙11」被提上了支付寶每週穩定性會議的議程。首當其衝的是要準備充足的容量。可是按多少準備呢?誰都沒經驗。
「拍腦殼估個數據,而後按預估數據乘以三去買機器,簡單粗暴。」李俊奎直言不諱。
爲了檢驗這樣拍腦殼的決策行不行,他還和團隊一塊兒搞了個測試:經過手動更改配置,把多臺機器上的流量導到一臺機器上,測試一臺機器的能接住多大的流量。「如今想起來,那就是壓測最先的雛形。」
他們甚至準備了一個備用的工做聯絡羣。當時尚未釘釘,工做羣都搭在旺旺上,「萬一旺旺服務器也出問題了,不能及時聯絡怎麼辦?」
籌備的時間雖不長,倒也方方面面都有兼顧,「可是無論事先作了怎樣萬全的準備,每一年總有意外發生。」金融核心技術部工程師趙尊奎說。他當年所在的團隊是帳務會計組,一舉一動都關係到錢,絲絕不容有錯。
意外真的來了。
11日凌晨,促銷活動剛開始不久,支付寶的帳務數據庫就容量告急。
病來如山倒。發現問題時,情況已經十分危急,「只能再撐幾分鐘!」運維心急如焚,若是不能立刻找到解決辦法,支付寶就面臨宕機風險,交易鏈路一斷,誰也買不成。
怎麼辦?運維把心一橫,說,砍了會計系統吧,給核心的帳務系統騰空間。
時間已經容不得多加斟酌,一羣高管站在背後,支付寶中間件團隊的工程師蔣濤感到史無前例地緊張,「操做的時候手都在抖。」
這個當機立斷的決策將支付寶從距離宕機只差幾十秒的懸崖邊挽救了回來。過後的數據顯示,2010年的雙11,參與用戶達到2100萬,總GMV達到10億,是上一年的20倍,這是任何人都很難在事先預估到的漲幅。
「能想到會漲,但誰也想不到漲勢會這麼猛烈。」趙尊奎說,「也就是從那年起,咱們開始隱隱以爲,更猛烈的還在後頭。」
85後的肖涵和90後的鄭洋飛,都是在讀大學時就知道了雙11。
肖涵喜歡網購,09年就成了第一批嚐鮮雙11的剁手族,還在一個技術交流羣裏認識了參與過雙11的支付寶工程師;鄭洋飛常買《電腦報》,那上面說2010年雙11一天的銷售額等於香港一天的零售總額,他一邊驚歎,一邊心生嚮往。
「以爲好牛B,想進去看看。」
當年互不相識的兩個年輕人,不約而同地產生了這樣的想法。
肖涵在2011年加入了支付寶,那一年支付寶已經開啓了「上半年搞建設、下半年搞大促」的模式,籌備工做從五、6月起就着手進行,他剛一入職,就被調去開發流量接入和調撥系統spanner。
這個系統至關於支付寶交易鏈路的第一道門戶,「比如餐廳上菜的推車。通常餐廳,一個服務員只能每次上一盤菜,但雙11的挑戰,就是要讓一位服務員同時能上十盤菜,所以咱們須要一個推車。不過業界沒有現成的推車能知足支付寶的需求,咱們得本身造。」
差很少一全年的時間中,肖涵和團隊爲這個項目廢寢忘食,spanner終於在2012年的雙11迎來了第一次大考。
誰曾想,意外又發生了。
那一年支付寶的大促監控系統也已經上線,流量曲線可以秒級實時顯示,零點將近時,全部人都緊盯着屏幕,翹首以盼。
——零點一到,流量進來了,曲線開始增加,造成很漂亮的弧度,全部人開始歡呼,可是突然,它跌了下去,而後開始像心電圖那樣抖動。
監控系統沒有問題,也沒有報錯,爲何流量會進不來呢?
一石激起千層浪。他所能看到的抖動,一樣實時顯示在了淘寶的做戰指揮室裏。支付寶工程師賀巖正做爲支付寶的惟一「表明」,在那裏和淘寶的技術同窗一塊兒備戰。這是個極其考驗心理承受能力的工做,在支付曲線發生抖動的時刻,「淘寶的技術同窗們一會兒就把我圍在了中間。連問‘支付寶出什麼事了’?」賀巖回憶道。
肖涵腦子裏一片空白,惟一的念頭是,「不能讓交易停下。」
0:00到0:20,短短的20分鐘裏,10分鐘用來定位問題,10分鐘用來解決問題;一樣在這短短的20分鐘裏,外面已經天翻地覆:「‘支付寶不能付款了’登上了微博熱搜,家人、親戚、朋友都給我打電話問是什麼狀況,手機都要被打爆了。」
關掉了一個健康監控模塊以後,系統終於恢復了穩定。比起緊張,肖涵感到的更是史無前例的震撼:原來本身所作的事已經和千萬人息息相關,每一點微小的疏漏,所影響的都是難以估量的龐大羣體。
「沒有身在其中過,就很難意識到本身敲下的每一行代碼有着怎樣的份量。」鄭洋飛說。他在2013年加入支付寶實習,帶他的師兄鞏傑說了一句令他印象極深的話:你看看那些客服mm,你敲代碼時仔細一點,少出一個錯,她們就不知能少接多少個報錯電話。
跨過了2012年的坎兒,DBA就再三給出警告:擴容已經到頭了,頂多再撐幾個月,按這個增速,若是不想點別的辦法,確定堅持不到明年雙11。
禍不單行。另外的「緊箍咒」也接連落下:Oracle數據庫的鏈接數上限成爲擴容的瓶頸,更要命的是,因爲機房的一再擴容,杭州的電力已不足以支撐。有時候爲了保機房供電,「大夏天的,辦公室都會停電,不得不運冰塊過來降溫。」鞏傑苦笑着說,杭州的盛夏,誰過誰知道。
治標的方法快要山窮水盡,必需要從治本的角度出發尋找新的解決方案,好比,從架構層面「搞革命」,作單元化。
革命不是請客吃飯,要從架構層面作根本性的調整,舉步維艱:一來沒有任何成功經驗能夠借鑑,只能摸索着走;二來牽涉到衆多部門,你們需求不一樣,意見不免相左;三來,既然要革命,那目光必須放得更加長遠,不能只是爲了解決今年或明年的問題,至少也要作將來三年的規劃。
與此同時,在和淘寶商城——如今叫天貓了——溝通以後,支付寶絕不意外地定下了又一個使人驚呼「不可能」的目標:支付峯值每秒2萬筆。
事關重大,人人都很謹慎。「光是架構調整的方案就討論了好久。」陳亮說,做爲項目的架構師,他費了不知多少口舌去說服全部人都認同這個方案。
重擔的一頭落在他的肩上,另外一頭則交給了2010年抖着手化解危機的蔣濤,蔣濤更愁穩定性問題:「作技術架構變動的同時還得穩住業務,這件事很是複雜,技術風險也很高。」
留給他們的時間也很少了。LDC架構的立項已經是2012年年末,距離2013年的雙11不足一年,對於這樣浩大的工程來講,就一個字,緊。
陳亮最初構想了一個宏大的體系,要把全部系統都一口氣單元化,但這個方案被程立否了:「主要問題在淘寶的交易上,先把淘寶作了。」按他的意思,哪怕先作第一期,2013年也必須上線。
一堆不可能的目標彙集在了一塊兒。但目標既然定了,就只剩向前這惟一的方向。
「立項以後,咱們幾乎每月都作發佈。」蔣濤說,這個頻率是通常項目開發的好幾倍,但即使如此,直到雙11以前半個月,整套系統纔算部署完成,小錯仍然不斷,不過,隨着愈來愈多的小問題和被發現和修正,他終於感到,「內心總算慢慢有點底氣了」。
2013年,支付寶LDC架構首次在雙11亮相,支付寶也第一次派「表明」前往雙11的總指揮室——阿里巴巴西溪園區的「光明頂」。
這位「幸運」的表明就是李俊奎。「我就是去當‘炮灰’的。」他笑稱本身一走進光明頂就感覺到了熱烈的壓力。當年的總指揮李津當着全集團幾百位工程師的面,指着大屏幕點名喊他:「向秀(李俊奎的花名)!你看看支付寶!」
這項壓力山大的任務,李俊奎連作了好幾年,乃至於作出了經驗。「首先是不要慌,不管接到什麼反饋,先說‘知道了,我看看’。由於你一我的在現場其實什麼也作不了,你的職責實際上是傳達,以最快的速度,把問題傳達給後方的夥伴,而後,相信他們。」
他說這是支付寶技術團隊的重要制勝祕訣之一:你永遠都不是一我的在戰鬥,你也沒法一我的戰鬥,但你的身後永遠有最靠譜的夥伴。
至於這一年的戰果如何,按蔣濤的話說,「硬扛過去了」。新架構有驚無險,走出了第一步。
2013年雙11的另外一個特殊之處是,支付寶的備戰室裏多出來一幅關老爺的掛畫。
掛畫是鄭洋飛「請」來的,不過「拜關公」做爲支付寶技術團隊的一項傳統,早在他入職以前就由來已久。源頭聽說要追溯到支付寶創建之初,每到重要的系統更新時,工程師們就會在旺旺羣裏轉發關公表情包,以求更新順利,「別出bug」。
隔了一年以後,關公像「升級」了,有同窗去西安校招時看到了關公的皮影藝術品,就「請」了一個回來放在備戰室。後來,程立買了一尊木質關公像放過來,去年,副CTO胡喜又買了一尊關公銅像。
除了拜關公,去寺廟燒香也是例行項目,視目的地不一樣,還分爲「靈隱寺派」和「法喜寺派」兩大派別。至於哪邊靈驗,說法不一,但據觀察,每一年雙11事後,程立、胡喜就會親自率隊上山還願,從支付寶大樓一路步行到上天竺法喜寺,回來的途中,還會沿途撿垃圾作公益。
技術是純粹的科學。技術人難道真的相信求神拜佛能避免系統故障和bug嗎?
「心理上,我以爲仍是挺有用的。」陳亮說,「主要是表達對於不可預知之物的一種敬畏。雖然咱們已經作了多年技術,但技術的道路上仍是充滿了不少不可預知的東西。」
不可預知,構成了工程師們每一年面對雙11最大的焦慮感來源。
他們用各自的辦法緩解雙11迫近的壓力。有人是運動派,用跑步或打球放空大腦,有人是「強迫症」派,一遍又一遍地check代碼才能安心,還有人是「吃貨」派,迎戰以前一定要先組團去吃海底撈。
全程參加了過去11年所有雙11的趙尊奎,在被問到「哪年最很差搞」時,秒答曰:「哪年都很差搞。」一樣「全勤」的陳亮則表示:「14年以前,咱們對於雙11零點的信心,若是非要說一個數字的話,60%吧。」
但他很快補充:「不過2014年以後,這個數字就變成95%了。」
陳亮的信心,來自於當年支付寶壓測體系的創建。這一次再也不是手動調配置測單機了,而是建立出仿真環境讓系統去跑,提早找出系統的問題並及時修復,以避免在正式戰場被打個措手不及。
「壓測讓雙11開始從一個不肯定的事逐漸變成肯定的事,它極大地改變了咱們對於雙11穩定性的保障方式。」有「壓測小王子」之稱的鄭洋飛說。
雖然2014年的壓測僅覆蓋核心系統,但這個體系已經幫了大忙。在雙11以前的一個月裏,它至少讓一百多個致命的問題提早暴露出來。「若是其中有一個沒有修復,咱們2014年的雙11確定就掛了。」陳亮說。
壓測這一「壓」,既壓出不少隱患,也壓出了一個大問題:支付寶所用的Oracle數據庫在壓測之中「抖」了起來,性能眼見得觸到了天花板。
2014正是移動互聯網大爆發的年份。指數增加的移動支付比例勢必帶來比往年更洶涌的流量峯值,Oracle肉眼可見地支撐不住了。
再買服務器?成本吃不消,並且爲了應對峯值而增添的機器,平日裏沒有用武之地,徹底是資源的浪費。
還有沒有別的辦法?有的。阿里自研的分佈式數據庫OceanBase,從淘寶被劃到支付寶後,已經沉寂了兩年,正在焦急地尋找一展身手的舞臺。
可是一據說是自研的數據庫,業務滿臉都是狐疑。跟交易和金額直接相關的數據庫,只要錯一個數據,後果就不堪設想,別說雙11這麼大的流量,即便平日,要不要用這個沒通過驗證的產品,也頗要斟酌一番。
先切1%的流量給OceanBase試試吧。這是你們爭論了好一陣後得出的方案。可是Oracle在壓測中的表現顯示,缺口不止1%,而是10%。
OceanBase說,咱們來承接這10%。
10%,聽起來很少,但雙11的10%,至關於平日裏的最高峯值。若是OceanBase能平安無事地接住這10%,就意味着它能夠擔起支撐支付寶平常運行的重任。
OceanBase必須證實本身有這樣的能力。「咱們找了淘寶的同窗,協調了不少資源作了一個測試,主要校驗淘寶訂單的金額和支付寶交易金額是否能吻合。」DBA團隊的工程師師文匯說,當時的方案很謹慎,若是OceanBase出現了問題,隨時均可以切回來。
測試結果,OceanBase沒有錯漏一個數據。程立立即拍了板:10%都切給大家。這個決定成就了OceanBase在雙11的首秀,「至關於Oracle和魯肅(程立的花名)都幫了咱們一把。」師文匯笑着說。
這時距離2014年的雙11,時間已經不足兩週。可靠性雖然經受住了考驗,但OceanBase畢竟是個誕生才四年的年輕數據庫,小問題層出不窮,好比響應時間長達10毫秒,比Oracle差了好幾個數量級。最後十來天,師文匯和全團隊的同窗一塊兒,硬是把它優化到了1毫秒如下。
「作了這麼些年,對它的容量和性能仍是比較有信心的。」師文匯說。
他說得輕描淡寫,但在這個曾經面臨團隊解散項目取消的產品身上,他和整個團隊一塊兒傾注了多少心血,除了他們本身以外,誰也說不清楚。
OceanBase最初並非爲雙11而作的,但在雙11這個舞臺上,它第一次得到了聚光燈下的位置,而且表現卓越,今後,支付寶開啓了核心交易系統徹底搬遷上OceanBase的進程。
到今年,OceanBase對內100%承載螞蟻業務的流量。對外,在被譽爲「數據庫領域世界盃」的TPC-C基準測試中,打破了由美國公司Oracle(甲骨文)保持了9年之久的世界記錄,成爲首個登頂該榜單的中國數據庫產品。
2015年,李俊奎去拜訪了上海證券交易所,那裏的交易系統部署在6臺大型計算機上,交易峯值能達到每秒10萬筆。
他大爲驚歎:10萬筆!何等遙不可及的數字!何時支付寶也能達到就行了!回到杭州,他立刻與同窗們分享了此次見聞,結果同窗們告訴他說,今年咱們的目標就要超過每秒10萬筆了。
李俊奎一想,這種一聽就不可能的目標,是支付寶的做風,沒毛病。
與此同時,鄭洋飛則在爲這個目標頭痛不已。他剛剛跟他的主管打了一個賭,賭的是他做爲2015年雙11全鏈路壓測的負責人,能不能保障雙11的支付不出任何問題。賭注是一隻apple watch。
這一年是90後的鄭洋飛第一次挑大樑,從雙11的參與者轉換角色成爲一個項目的主導者。但這一年也是他和團隊都「忍辱負重」的一年,上半年,由於頻繁不斷的可用率問題,他們作穩定性的團隊也在頻繁遭受打擊,士氣不振,很多同窗選擇了離開,內外的質疑聲也接連不斷,那幾個月,空氣裏都彷彿寫滿了「難熬」二字。
「當時團隊沒幾我的了,可是人人都憋着一口氣,想着必定要把雙11這個事情搞好。」鄭洋飛說,「就是不想讓人以爲支付寶不行。」
局面有如背水一戰,若是失敗了,想要「翻盤雪恥」就要再等一年。由於雙11每一年只有一次,不只是一年一度的大考,更是一年一度的舞臺。按照系統部資深技術專家楊海悌的說法,「人人都想把本身一年的努力拿到雙11去驗證和展現,不讓上還不高興。」
跟2014年的全鏈路壓測比起來,2015年主要要作幾個方面大刀闊斧的改進:一是要從核心系統擴展到所有系統,二是要平臺化,也就是打造一個全鏈路壓測的平臺工具,三是要跟整個集團的壓測打通聯動。
「老實說,很是忐忑。」鄭洋飛內心沒底。
當雙11零點的洪峯撲面而來時,他已經忘掉了apple watch這回事。有一個壓測沒驗證到的數據庫定時任務,讓曲線看上去不那麼平滑。「穩定壓倒一切」的宗旨之下,系統只要一抖,整個團隊的心也跟着抖了起來。迅速排查的結果是,系統總體沒出問題,但壓測遺漏的一些細節,讓結果不是那麼完美。
「曲線不是特別好看。」他不無遺憾地說。
鄭洋飛最終贏得了這隻apple watch,但對於他而言,除了獎品以外,這隻apple watch更有了別樣的意義,時刻提醒他即便作了再充分的準備,也沒有萬無一失。
其實每一位支付寶工程師的心中,都有一條的「完美曲線」。
理想之中,它應該是這樣的:雙11零點,洪峯來了,曲線漂亮地攀升,沒有驟升驟降,不要用頻繁的抖動去折磨你們脆弱的神經。
若是要濃縮成一個詞,那就是「絲般順滑」。
可是,每一次爲此而作的技術演進和架構變動進行到必定階段,「你都會發現一開始可能設想得很是美好,但到了必定的規模以後,挑戰就連續不斷地來了。」楊海悌感嘆道,「量變產生質變,這句話不是虛的。」
雙11的「量」,早已一騎絕塵地進入史無前例的領域,2016年雙11僅用了6個多小時,交易額就已超過2014年全天。這些年以來,都是本身在不斷刷新本身的紀錄。
在這樣的量之下保障穩定,難度不止提升了一個數量級。
還記得2012年末制定的架構革命之「三年計劃」嗎?它真的持續了三年,這場最初是爲了解決數據庫鏈接數和機房限制而進行的架構革命,在三年的演進過程當中,又衍生出不少其餘的架構,好比異地多活、容災,彈性的容量調度等,直到2016年,纔算所有落地。這之中每一步的演進,都是爲了讓系統具有動態擴容能力,可以順滑地進行彈性的擴展和伸縮。
「大」是考驗,「小」也是考驗。
師文匯體會最深入的瞬間,不是2014年OceanBase一鳴驚人的時刻,而是2016年一次小小的測試。在這個測試裏,他發現了一個指標有一點異常——很是不起眼,2毫秒的誤差。
「2毫秒而已,若是在別的地方,極可能就會被判斷爲可有可無,而後漏過了。」但他的團隊中的一位小夥伴,很是認真地去檢查了這個問題——萬幸如此。後來事實證實若是不解決這個問題,那年的雙11就會有大麻煩。
「即便資源不足、時間緊張、軟件有各類不完善的地方,但咱們的小夥伴不會放過任何一個問題。」師文匯感慨。
早些年,流量曾是實現完美曲線最主要的挑戰,可是越到後來,隨着業務的不斷拓展,工程師們愈來愈清楚地認識到,穩定壓倒一切不假,但技術更要着眼於將來。
2017年,是賀巖加入支付寶的第九年。這一年支付寶實現了離線在線混布,離線任務的大量閒置資源能夠被用於在線任務,從而大大提高了資源的利用率。
「在一些小的場景中,這種效率提高能帶來的節約可能不那麼突出,但在咱們這樣的體量上,它所帶來的就是不可估量的一整個將來。」賀巖說。
有了前人積澱這麼多年的基礎,面向將來的路,就越走越順利了起來。
2018年雙11,支付寶其實保障了兩個大促,天貓的大促,和支付寶本身的「碼上雙11」等玩法。這一年的故障數比前一年降低了70-80%,首次實現大促全天平穩。
大隊長李錚很是淡定:「說白了,就是咱們把各類風險經過系統化或工程化的流程,控制得比較好。峯值出現的過程,也都在咱們的預期以內。」
2019,則是雙11的「雲原生」元年。
若是說技術是像疊積木那樣一層一層累積起來的,那雲原生就是最下面的基礎,打好了這層基礎,上層的應用就像是站在了巨人的肩膀上,生來就具有了一系列強大的能力。業務無需再過多地擔心技術問題,只須要專一於業務代碼便可。
故事講到這裏,不知你們是否還記得,當年由於每秒兩萬筆的峯值目標而驚呼「不可能」的同窗們。
當年,每秒兩萬筆是他們舉全體之力奮鬥半年才能衝上的高峯,而去年,每秒兩萬筆已經成爲支付寶再平常不過的情況,隨隨便便,一秒鐘的事。
這樣的鉅變真實發生了,只是身處當時當地,誰也沒有想那麼多。幾乎每一位工程師都表示:「每一年搞完雙11,下一年的目標就出來了,而後咱們就爲着下一年的目標去進行相應的準備和努力。」
一個目標,又一個目標,在征服一個又一個「不可能」的過程當中,曾經覺得高不可攀的標高,都一一被甩到身後。當年遙不可及的每秒10萬筆,今天看來不太小菜一碟。
只有當回頭的時候纔有所感受,在某一天突然發現,原來已經走出了那麼遠,原來已經攀登到了那麼高的地方。
而當年那些驚呼不可能卻又拼命將不可能變成現實的年輕人,已經紛紛長大,他們如今有着更多的從容淡定,上限在哪裏沒人知道,更大的多是,沒有上限。
流量數據的增加也早已不是雙11技術保障的所有。更多複雜的業務和玩法,在技術的成果之中生長起來,反過來又爲技術的發展提供動力。走出雙11,它們還能走入不少的場景:新年紅包、五福集卡……
——或者走出支付寶和阿里巴巴。
那些由支付寶的工程師們創下的奇蹟,正一一變成產品,服務更多的金融機構。至今已有數十家銀行和金融機構用上了OceanBase,壓測平臺、雲原生等技術也紛紛走向產品化,支付寶經過歷年雙11沉澱下的技術和經驗,正在拉動整個中國的互聯網金融科技一塊兒飛奔。
——或者走向全世界。
雙11早已不只是中國的雙11,而是成爲了一場全球的狂歡。與雙11一塊兒,技術也在走向全世界。
「不過要是說到咱們的理想,那就是未來某一年雙11,整個備戰室空空蕩蕩,除了關公像以外,不須要有任何同窗留守,智能化的系統能搞定一切問題,而咱們只須要捧着茶杯或喝着酒,看着絲般順滑的曲線。」
對於鞏傑所展望的這種將來,現場就有同窗笑了。「不可能吧!?」每一年雙11都如同打仗通常,救兵如救火。
可是誰說不可能呢?畢竟,他們是那樣一羣已經把太多的不可能變爲現實的人。
公衆號:金融級分佈式架構(Antfin_SOFA)