總體來講都有將任務分割、運算、組合,只是協同和處理的重點不一樣;html
超級計算強調的是高並行計算能力,應用設備可能是超級計算機如天河一號,是infiniband的高並行處理架構,實現總線級協同,通常採用計算能力更強的GPU而非CPU;
集羣計算和分佈式計算是相對於設備部署結構來講,這種計算相對超算來講,對於計算的並行處理及響應要求較低,須要實現的是網絡環境下的協同,實現的效果受網絡環境影響。
網格計算是集羣計算和分佈式計算與超級計算中間的產物,是在原來集羣計算和分佈式計算不能知足需求,而超算又過於難以實現的狀況下,想經過增進網絡帶寬方式來實現經過集羣計算和分佈式計算可以達到接近超級計算的結果,國家網格節點之間的帶寬都是T級別的,就可想而知對於基礎資源的需求。
而雲計算是更接近應用的資源整合,在協調資源整合應用的前提下,對於應用處理的並行處理要求跟低,只是一種鬆散耦合的方式,但強調將任務分解、處理、組合的過程,以充分利用現有資源。node
虛擬化和雲計算是相輔相成的。雲計算落地的第一步是IAAS,而云基礎架構自己又是搭建在虛擬化技術上面的。 虛擬化技術主要分爲如下幾個大類 :1.平臺虛擬化(Platform Virtualization),針對計算機和操做系統的虛擬化。 2.資源虛擬化(Resource Virtualization),針對特定的系統資源的虛擬化,好比內存、存儲、網絡資源等。 3.應用程序虛擬化(Application Virtualization),包括仿真、模擬、解釋技術等。react
雲計算是並行計算(Parallel Computing)、分佈式計算(Distributed Computing)和網格計算(Grid Computing)的發展,或者說是這些計算機科學概念的商業實現。雲計算是虛擬化(Virtualization)、效用計算(Utility Computing)、IaaS(基礎設施即服務)、PaaS(平臺即服務)、SaaS(軟件即服務)等概念混合演進並躍升的結果。總的來講,雲計算能夠算做是網格計算的一個商業演化版。linux
簡而言之:
1 雲計算是將一臺設備經過虛擬化拆分紅多臺虛擬機器使用。
2 網格計算式將多臺設備合併成一臺設備使用。web
來源:
http://zhidao.baidu.com/link?url=qsg9l4H_Q9zkzZ2hQ4hIKNg9cSgjh9Jdk8E2d7rZz2a8L9XNLLMHepWxjMIZtnq4-dPNR1YOy4i2G4pgj4qtAa
http://zhidao.baidu.com/question/133931838100732005.html?fr=qrl&index=1&qbl=topic_question_1
http://zhidao.baidu.com/question/354342684.html?qbl=relate_question_1
http://zhidao.baidu.com/question/324910551.html?qbl=relate_question_4
http://zhidao.baidu.com/question/70675394.html?qbl=relate_question_0
http://www.chinacloud.cn/
http://bbs.chinacloud.cn/
http://www.chinacloud.cn/show.aspx?id=14382&cid=11正則表達式
所謂網格計算,是指在邏輯上將接入網絡的多臺計算機做爲一臺計算機使用,經過提升各臺計算機的使用效率,使其總體的處理能力大大提升,甚至與超級計算機媲美。在網格計算模式下,系統能夠自動向每臺計算機分配處理任務。若是其中一臺計算機出現故障,其它的計算機能夠自動替代它並繼續進行處理。網格計算的實質就是集中利用分散的IT資源。算法
企業信息系統的發展經歷了三個階段。第一代處理方式爲大型主機集中處理,在這種處理方式下,不管是在物理上仍是邏輯上平臺都是集中的;第二代處理方式爲客戶端/服務器型的處理模式,存在數量衆多的服務器與客戶終端,不管是在物理上仍是邏輯上平臺都是分散的;網格計算是企業信息系統的第三代處理方式,是物理上分散、邏輯上集中的方式,在邏輯上則能夠做爲一臺計算機來使用。數據庫
按政治正確來講, 超算跟堆廉價硬件是不同的(嚴肅臉).
其實一回事, 堆廉價硬件這種思路不就是互聯網窮屌們玩不起超算纔想出來的麼, 不過超算就是比較精細了, 對不少方面都有優化, 玩得全是高富帥級硬件(IB 級背板帶寬, 嘖嘖, 要是普及到戶就能永世宅了).
有幸我村校有一個 WNY 地區惟一的超算中心, 因而蹭了門課有幸參觀了超算中心和順便蹭了個帳號實踐模擬了一下蛋白質摺疊. 這東西真不是你搭個 mapreduce 就玩得起的. 隔壁化學系和建築系, 生物系的連商學院的都跑過來蹭, 反卻是計算機系的用得少.
針對計算目的不同, 每每每一個超算中心都有不通的通訊協議和分佈調度策略. 你見過 Spark 或者 Hadoop 改變通訊協議和調度策略麼(不是沒有, 少)
還記得前段時間超算會議開完以後教授上的第一節課失落地嗚呼哀哉: top 10 裏面中國居然佔了大部分, 美帝就2個, 美帝藥丸云云, 心中就充滿了自豪啊!(誰叫咱們人多計算資源不夠啊! 中國應該是惟一一個國家大部分地市級基本上都有超算中心, 要不天氣預報和疾控預防怎麼玩, 具體我也不知道聽這個波蘭教授吹的)
天河是超級計算機。體系結構不同決定了應用的場景不同。
1-分佈式計算平臺例如阿里雲所處理的任務一般比較「小」,例如開一個web服務器或者是linux系統的虛擬機,或者說map-reduce這種普通的pc就能養成的一個獨立的任務。分佈式計算平臺直接經過以太網鏈接(每秒幾百MB),一般各個主機的通訊量不會很大。
2-而天河這樣的超級計算機,一般多個cpu+共享內存造成一塊「板」,板和板直接經過超高速互連設備鏈接,其傳輸速率可以達到每秒鐘幾十GB(可能不是很準確,大體)。由於高速互聯設備的存在,使得cpu至關於共享內存,一臺超級計算機能夠看作就是一臺計算機,用來作大規模的科學計算,例如須要用幾百GB甚至上TB的內存,作大量的運算,這個時候分佈式計算平臺是沒法或者很難完成的。
做者:流雲12138
連接:https://www.zhihu.com/question/21294792/answer/97775433
來源:知乎
著做權歸做者全部。商業轉載請聯繫做者得到受權,非商業轉載請註明出處。
超級計算機的存在是很是有必要的啊。
題主應該是認爲:分佈式計算集羣計算速度辣麼辣麼快了,只要並連電腦足夠多,計算速度就能超過天河超級計算機,那麼要天河干嗎?(⊙o⊙?)
我給題主舉個通俗易懂的例子:
假設π後面有幾十億位,咱們就要把這幾十億位給算出來。
超級計算機的計算能力十分出衆,一分鐘能夠計算1萬位,普通計算機能夠計算100位,計算集羣能夠並連100臺電腦從而計算速度和超級計算機平分秋色。
可是真的能夠這樣嗎??
答案是不能的,計算π是連續的,先後關聯的,真的能讓計算利羣的第一臺電腦負責前100位,第二臺負責第100位到200位……
計算π是一整個數的計算,不能夠分拆!!因此計算集羣算π的計算速度仍爲100,天河倒是10000。
這個就不說了,計算π那都是渣渣,複雜的天體物理學,那纔是天河的戰場。
可是超級計算機也不能取代計算集羣。
假如百度一下「美白教程」,對於這個搜索請求,百度能夠分給多臺計算機分別搜索,電腦1搜貼吧,電腦2搜網頁,電腦3搜經驗,電腦4搜文庫……甚至能夠細分給10000臺電腦。
而天河就得從頭開始搜,先搜貼吧,接着網頁,再經驗,最後文庫……速度再快也幹不過計算集羣量大啊。
因此計算集羣和超級計算機的存在都是有必要的,他們特色不一樣,卻各有長處。
以上爲我的淺見,若有錯誤,還請必定指出。由於是個渣渣,見識短淺,舉不出高端的例子,說到這裏都快要哭出來了。。。
分佈式計算有一個重要的目標就是用一堆便宜的PC堆積出一個能與大型機有相同計算能力的集羣。想法很是好,但分佈式計算的前提是,任務要可分解,才能「分佈式」計算。
可是不少本質上是串行化的任務是沒法並行拆分的,好比微積分計算、正則表達式匹配、航天、衛星軌道計算等,這些都依賴單機單線程的強大計算能力,所以大型機是不可或缺的。
還有,分佈式要應對的主要問題是PC的穩定性,若是忽然的宕機可能會對金融領域形成致命的不一致性,而大型機有着良好的可靠性和服務,天然有存在的市場。
分佈式程序本質上是 divide and conquor 思路,能利用多少臺機器取決於任務可被分解的粒度,但在不少場景下(好比機器學習)任務分解後的粒度依然很大,甚至超出單個 PC 的承載能力,這時就須要小型機、大型機乃至超速出馬。
舉個例子,搜索引擎在對用戶搜索詞作分析時,須要進行大量的模式匹配,爲了保證速度咱們把模式存在內存詞典中,這就致使對搜索詞的分析程度受限於單機內存。市面上能買到的機器內存通常在 200GB 如下,這致使不少高級分析難以開展,進而影響搜索結果質量。
怎麼解決呢?一個思路就是嘗試用 infiniband 或 fpga 等作高速網絡,跨機器訪問內存,進而 cpu 密集任務(如文本相關性計算)、多輪迭代的 io 密集型任務(如機器視覺)也能獲得改善。
天氣預報、地理勘探、生化實驗等也是一樣的,要麼單個任務太大,要麼任務間交互太多,這都超出了 PC + 以太網集羣的能力,須要藉助高速網絡組成一個超級單機。這就是超算了,很必要。
別的不說啦,咱們實驗室裏的計算集羣已經用上了4倍速的INFINIBAND網絡,插頭有兩個拇指那麼粗,點對點有效帶寬20G/s,就是任意兩臺機器通訊的帶寬都不小於20G/s。網絡延遲ping命令已經快測不出來了,微秒量級。硬件支持遠程讀寫內存,就是RDMA協議。
天河1A的網絡是定製網絡硬件和定製協議,點對點帶寬我記得是40G/s。天河二隻會更快。
具體到程序來講,計算能力需求是一方面,更重要的仍是數據通訊,好比咱們組的計算程序通常要上千個進程,每個進程每秒要收發幾百兆的數據,計算要持續幾個小時到幾天。
有。人類對速度的追求是無止境。之因此分佈式今天這麼火,是由於廉價的集羣能夠得到至關高的計算能力。可是普通的分佈式集羣有不少的缺陷,好比網絡開銷很大,這既受限制與網絡鏈路,也受限制於協議。天河這種機器是精心設計,計算能力仍是普通分佈式集羣沒法達到的。若是你須要承擔像天氣預報計算這樣的系統,你最終也是會和天河的設計理念差很少。
做者:柳傾
連接:https://www.zhihu.com/question/21294792/answer/90034776
來源:知乎
著做權歸做者全部。商業轉載請聯繫做者得到受權,非商業轉載請註明出處。
- 天河是並行計算的機器集羣,是爲了解決高性能計算的問題。
- 分佈式計算是爲了解決大量的計算問題。
前者的問題是計算量大(應用範圍:科學計算等),可並行處理;後者是計算量多,可分解處理(應用範圍:淘寶處理訂單等)。
以矩陣相乘爲例:分佈式計算比較適合計算百萬個1000×1000的矩陣的相乘;而並行計算比較適合計算一個1000000000×100000000矩陣的乘法。
爲了達到上述的要求,以天河超級計算機爲表明的並行計算集羣的體系結構不一樣於通常的分佈式集羣,每一個節點的CPU/GPU 數量多,內存大,計算前全部數據讀入內存,計算過程當中幾乎不訪問硬盤,硬盤只做爲數據的備份和運算結果的保存。爲了針對特定領域所須要的高併發性能,每每採用高吞吐、高性能的GPU或者特定的FPGA 代替通常的CPU進行計算,而分佈式則採用通用的商用服務器或者更低廉的機器。
可見就計算能力來講,分佈式計算集羣在並行計算集羣面前就是小巫見大巫,徹底不是一個數量級,但所針對和解決的問題也是不一樣的。下圖比較了天河二號和百度集羣的一些規模參數:
還有一個就是並行計算的實時性要求比分佈式計算要高。(好比氣象、災難衛星採集的數據須要準實時地分析獲得結果,以便儘快處理災情,這樣並行計算比較合適;而分佈式計算比較適合實時性較弱的業務,如日誌分析和數據挖掘)
首先題主問題有問題。
計算機分爲超級計算機、大型機、中型機、小型機和微型機。天河是超級計算機,不屬於大型機。
介於問題不專業,因此我仍是儘可能用通俗的話講。(開個玩笑)
純屬我的觀點。
超級計算機一直是用於科學研究,走在時代的前列。由於超算的體系結構和指令結構都是十分複雜的,因此一直凸顯出的是它的計算速度。對於超算的研究,是有助於計算機的發展的。可是,超算也只是適合待在實驗室,畢竟它結構複雜,造價昂貴,維護成本更沒必要說。並且超算的計算速度與IO瓶頸問題,使得超算大部分時候處於空跑狀態。
大型機如今專指IBM主機,也就是英文裏面的mainframe專指。最先時候,在PC出來以前,其實只有大型機的。IT領域的應該都看過著名的《人月神話》這本書,如今的大型機就是書裏面的IBM 360發展過來的。大型機速度雖然趕不上超算,可是經過各類平臺的軟件及體系,很好的平衡了計算速度和IO,使得其很好的運用於大型數據中心。但也是因爲其維護成本高昂,都是大型非技術公司購買其服務的。在中國,好比五大銀行、證券、金融等公司。在國外,大型機客戶就多了,還涉及到一些醫療數據中心等等等等。並且大型機是按每一年的計算量收費的,不是一次性支付。總的來講,大型機仍是比較有應用性。
中小型機,如今幾乎已死,分佈式計算的出現使之成爲一塊雞肋。價格不便宜,卻達不到大型機的運算能力。
至於題主提到的分佈式計算平臺,大部分是由x86架構PC集羣構成。由於PC便宜,壞了就換,並且能夠完成如今海量數據的處理。因此,如今不少科技公司都願意使用x86集羣,由於有技術團隊,並且維護成本低廉。
其實不管是PC集羣仍是超大型機,是人們兩種相對的處理問題的方式而已。題主的問題標籤是雲計算,而云計算暨能夠採用集中式,如超算和大型機,也能夠採用分佈式,就是現在火熱的分佈式。
說到此,順便評論下中國的去IOE之風。自從當局指示國內要自力更生,去IOE後,各個大小公司都開始喊着去IOE,常常有朋友和我談相似的問題,說咱們大機已死,巴拉巴拉。。。可是中國目前並無能夠代替的技術可以真正實現,尤爲是像五大行那種,要求要用浪潮服務器取代。當年沒技術引進技術,如今依賴過很,已經去不掉了。
好吧,說了那麼多,其實我想說的是,存在即合理。請你們忽略上一段話,我只是個學大型機又學分佈式的學生,我連皮毛都不懂,我瞎扯的,不喜勿噴。我畢業論文還沒寫完,匿了。
首先須要題主澄清一下:分佈式計算平臺是指什麼?是指distributed computing?舉個例子?
而後天河一號不屬於distributed computing, 她是parallel computing, 兩個不是一個東西,天河一號不只有存在的必要,並且是計算容量還遠遠不夠,越多越好,沒有上限的。這根本不是爭排名,而是現實須要擺在那裏,巨大的需求。
先講講distributed computing和parallel computing的區別。distrubuted computing是指不少個computing node分散開,互相之間沒有很快的網絡鏈接,各自領一個任務的一部分,算完後把結果彙總。這個任務是能夠分解成一個個獨立的小任務,不須要node之間太多通訊的。而parallel computing是不少個computing node放在一塊兒,互相之間用最快的網絡鏈接,一塊兒計算一個任務,這個任務有不少個步驟,須要各個node之間有很頻繁的通訊,通訊的數據量能夠很大。
舉個例子,矩陣的加法是能夠分解成各個模塊,一個node能夠獨立算出對應模塊的結果。矩陣的乘法就須要分解以後各個node頻繁通訊。學MPI應該會寫過矩陣乘法。
最後講parallel computing的必要性。科研和工業上應用都不少,說幾個實際的例子吧,飛機空氣動力學模擬,天氣預報。這些缺口都很大,但願出現更多的天河。
固然須要。若是你有一個很是大型的計算,須要1000個CPU同時跑,而且他們之間的數據交互量也至關大,這個時候你就必須用超算而不是分佈式計算了。
超算並非一塊特別大的主板上面插了幾十萬個CPU,而是分爲一個又一個的節點,每一個節點都有必定數量的核(好比說32)。節點與節點之間須要經過網絡進行通信。即便是使用了比普通的網絡快不少的InfiniBand,不少程序在超算上跑的時候性能瓶頸依然是在節點之間的通信,由於數據量實在太大了。可想而知若是這種任務放在分佈式計算上跑,使用平均200KB/s並且時不時掉線的網絡傳輸數據程序要跑多久。
我記得咱們學校超算的一個老師曾經提及過一件事情:有一幫搞核物理(貌似是,記不太清了)的去找IBM幫忙提高他們程序的計算效率,IBM的專家研究發現這個程序的特色是,相鄰節點之間的數據交互很是巨大,而其餘節點之間則只有少許數據交互。因而IBM的專家就爲此程序專門研發了一個超級計算機,這個超級計算機相鄰節點之間的通信效率比通常的超算快很是多,而非相鄰節點之間的通信的性能則比較平庸。用這個計算機跑那個程序速度提高很是明顯,並且世界讓沒有任何一款純的軟件可以戰勝他。
手機打字,回頭有空想起再補充。編程
先給出兩個結論:
一、如今因此超級計算機本質上都是集羣;
二、集羣能夠作分佈式計算,但高性能計算的要求比分佈式計算要苛刻得多。安全
下面逐條說明:
1:超算之前有MPP、SMP等形式的存在,那些都是專用機器,近10年來超算已經全面向集羣轉變,一臺大超算是由不少個計算刀片組成的。這也就是爲何有人說天河二號是砸錢高級DIY,由於天河二號除了主板(這個我不肯定)之外的全部主要硬件都是商用設備,有錢總能買到。
2:如今的超算,或者說高性能集羣,你徹底能夠當分佈式集羣來用。可是超算有更高級的文件系統和存儲系統,更快個更低延遲的IB網,以及量身訂造優化過的MPI跨節點(分佈式)運行環境。後者很是重要,我以爲幾乎能夠說是如今超算的核心技術之一。如今的那些分佈式系統,其計算任務都是鬆耦合的,沒有什麼明顯的先後依賴。可是超算上跑的科學計算不同,每每上一步解的結果下一步要用,所以各節點之間須要低延時的數據交換。實際上訪問數據的延時和帶寬是大多數高性能計算應用容易遇到的瓶頸,也是優化程序時主要着力點之一(由於內存帶寬和速度跟不上CPU的速度),在一個節點內如此,跨節點的傳輸問題會更嚴重。因此纔要上IB網,纔要針對性優化MPI環境。分佈式系統不同,沒有這個壓力,我有一億張圖片要壓縮我就平分下去各機器壓縮完了傳回來就行。因此高性能集羣去作分佈式系統沒有任何問題,反之則不行。
----------15.12.13更新----------
看到樓上樓下有那麼多人對大型機的認識不正確,我給大家一點用百度都能搜到的資料:
某國產大型主機:浪潮天梭K1 910 ,請點去技術規格那裏看看
IBM 最新的大型機 z13:IBM z SystemsIBM大型機老而彌堅 z13中國市場漆黑一片_DOIT.com.cn
實際上如今的大型機裏面也要用到『通用』的微處理器(IBM大型機的微處理器是Power系列的改過來的,至於安騰,雖然如今已經半死不活,也勉強能夠算是『通用』吧,還有其餘機器有用到),因此裏面也是一大堆處理核心,而不是什麼單核單線程能力很強。
下面這張圖是《Computer Architecture : A Quantitative Approach (5th edition)》給出的各場景宕機時長平均帶來的損失,仍是2000年統計的老數據:
因此大型機要的是穩定和安全,由於銀行部門不容許在交易高峯出現哪怕五分鐘的宕機。
至於計算能力,這裏應該作一個區分:浮點計算能力和整數計算能力。前者在任何形式的仿真計算(全部的科學計算和模擬都是仿真計算)中都是相當緊要的;後者在事務性計算上,突出表現爲數據庫以及平常軟件應用,關係緊密。
說大型機的計算能力強大,是指其整數計算能力很強;至於其浮點運算能力,一臺大型機也打不過兩三塊Tesla K80計算卡。沒有人如今會去買大型機來作浮點運算,除非是土豪錢多任性。
而如今用在超算上的計算設備,都在增強並行(向量)浮點處理能力。由於大部分科學和工程計算問題最終都要轉化到一個或多個矩陣計算問題上,而矩陣計算問題就要處理大量的向量。因此Xeon Phi裏有512位的向量部件,GPGPU上有上千個流處理器,都是極其具備針對性的。
好,回到本來的問題上,我解釋一下爲何說網絡通訊技術,也就是硬件層面的IB網架構和軟件上的MPI跨節點通訊庫的調試,是超算的核心技術之一。
先說硬件。如今世界上跑得最快的500臺超級計算機,在Home | TOP500 Supercomputer Sites查到完整的列表。排名前50的超算,其互聯方式基本都是定製的(基於InfiniBand)或者直接就是IB網,排名最前的非定製非IB網的機器是第66名聯想本身弄的一套,Segment是Industry。用以太網的機器,其持續運行速度(你基本上能夠理解爲一個充分優化的應用能連續跑出來的最快的速度)比起其理論最大速度,不少都沒有超過一半。過半的那些不少都是排名比較後或者計算節點數比較少的機器。Mellanox在其報告http://www.mellanox.com/page/top_500中也提到,將近一半的超算用了IB網。而商用的分佈式計算集羣,好比第66名那臺,用的是萬兆以太,計算效率只有三分之一不到。可是做爲商用集羣,這一點問題都沒有。
再說一下MPI通訊庫的問題。有好的硬件,也要有好的軟件去用,前50的超算基本都會針對本身的架構去作一個MPI庫的優化。如今能獲取到的免費高性能通用MPI庫有OpenMPI、MPICH和MVAPICH,商用的有Intel MPI。天河二號上的MPI是基於MPICH作了深度優化的。我以前有一個程序,在16個節點上運行,每一個節點上有一個長度爲三千兩百萬的double型向量,要將這16個向量作加法,而後存到一臺機器上,MPI庫有一個函數MPI_Reduce提供現成的算法去處理。Intel MPI作一次這樣的處理,用時比天河二號自主的MPI要慢了一倍有多。因此若是你不去作優化,那些一邊計算一邊須要MPI交換數據的程序,就會很慢。分佈式集羣通常就不會去處理這種事情,最多買個好一點的商業庫,或者直接用免費的。這樣的話作科學計算的速度就遠遠不如定製過MPI庫的超算了。
另外,就我所知,超算上的應用裏,有磁盤IO瓶頸的很少,更多的是內存帶寬和網絡延時&帶寬瓶頸。但商用分佈式集羣處理的問題,MapReduce之類的,對磁盤IO的要求就比較大。這個時候商用集羣能夠用便宜單擊來達到高磁盤IO。至於超算,它每一個計算節點本身也有一塊硬盤,可是不存數據。全部的用戶數據都是存放在一個統一的高性能存儲陣列上。
做者:王樂珩
連接:https://www.zhihu.com/question/21294792/answer/18068428
來源:知乎
著做權歸做者全部。商業轉載請聯繫做者得到受權,非商業轉載請註明出處。
超級計算機其實也是分佈式集羣架構,和普通集羣很相似,編程模型都是MPI、Mapreduce那一套。稍有不一樣的是:
1.超級計算機用infiniband這種通訊背板、各類企業級內部互聯架構……以便提升各節點間的網絡IO,常規分佈式集羣通常都是千兆、萬兆網卡。
2.超級計算機通常會配高檔的磁盤陣列,而GFS+Mapreduce方案底層基於掛在各節點上的普通硬盤。
3.超級計算機會使用更先進的CPU和GPU,更多內存。
4.因爲發熱強勁,不少超級計算機採用水冷。
從這些細節能夠看出:
1.超級計算機更適合計算密集型做業,若是你是用MPI算核物理、天體物理、蛋白質摺疊、渲染《阿凡達》、求解普通PC上須要幾千萬年的迭代方程,那麼就應該用超級計算機。反過來,分佈式集羣Mapreduce適合IO密集型的做業,加上成本低,能夠把集羣規模搞得很大,所以最適合掃描過濾海量的數據,例如互聯網行業的經典應用:爲搜索引擎建立全網Web頁面的索引。
2.超級計算機造價更昂貴,維護成本也高,甚至每小時電費就得上萬元。記得我之前作蛋白質搜索引擎的時候,在國內最大的超級計算機之一跑過一個80分鐘的job,花了老闆5000多塊上機費(由於咱們有項目合做,人家已經給咱們打了很低的折扣了)。不過這些做業用MapReduce在普通分佈式集羣上跑,跑了好幾天。
雲計算是創建在廉價分佈式硬件+牛B的軟件系統設計上,在商業上愈來愈成功。因此正在搶佔傳統超級計算機的用戶市場。例如阿里雲剛剛和國內的動畫公司合做渲染出來的《昆塔》,計算量是阿凡達的四倍。不過就我所知,各大傳統超算中心其實依然是排隊、忙不過來的。隨着國內經濟的升級,不少造船、石油、材料、生物、天體物理、軍事領域的計算需求都很強烈,這一類計算密集型任務,性能和時間每每比成本更重要。
最後是廣告時間(求不折疊)。咱們團隊在招人,雲計算、大數據、分佈式計算人才很合適,歡迎投簡歷,具體信息參考
GeneDock 也歡迎推薦,成功入職後獎勵推薦人iPhone或DJI大疆無人機。