競價這種方式適合不適合GPU雲服務器,怎麼買更划算??

什麼,阿里雲出競價了!!!

競價實例全網1折起開售,雲服務器最低每小時不足2分錢。2分錢?!

「競價」型實例是個蝦米?竟然能低至一折起。

_

競價?難道是比誰眼力好嗎?真的能夠撿到便宜嗎?這麼高大上的阿里雲產品GPU也能夠嗎?

hoho,
來看個究竟。
搭載Nvidia最新一代P100計算卡GN5實例,競價購買最低只需1.54元/小時起。
具體詳情:https://yq.aliyun.com/articles/226755前端

競價這種方式適不適雲服務器,怎麼買更划算??服務器

哪些客戶能夠用?哪些場景能夠用?
場景解析:
視頻渲染/轉碼的場景
一般的渲染場景架構計算與存儲是分離的,而且計算採用分佈式部署而渲染素材數據和渲染結果採用集中存儲;
任何一個渲染項目,其中很大一部分的成原本自分佈式的計算所須要大量GPU;可是在渲染場景下,每路GPU之間的計算相互獨立無交互,經過加入簡單的GPU計算節點容錯機制,能夠經過「競價付費」獲取GPU實例+NAS/OSS集中存儲的方式,把計算資源的成本大大下降,進而大幅下降總的渲染成本。
以經常使用的ecs.ga1.4xlarge(16vCPU/40GB內存/1*AMD S7150 GPU卡)爲例,其包月小時價格爲: 8.35元/小時,當採用10個實例組成集羣時,渲染8小時的總花費爲668元(8.35X10X8=668)。當使用競價性方式,能夠最低一折起只要不到百元花費便可完成,大幅下降計算費用。架構

AI深度學習場景
深度學習Training訓練場景中模型中間數據可經過checkpoint機制存放於雲盤或NAS/OSS等持久存儲中,利用類似的計算存儲分離的架構,也可利用競價實例來顯著下降GPU實例成本;
深度學習Inference在線推理場景,充分利用各推理節點間的無狀態特徵,部署多個競價性實例,且經過前端接入SLB負載均衡,將推理請求引流到不一樣的GPU競價實例,達到更高的性價比。
以推理計算型實例gn5i-c8g1.2xlarge(8vCPU/32GB內存/1*Nvidia P4 GPU卡)爲例,其包月小時價位4.67元,當採用10個實例組成AI深度學習推理服務時,其每小時的GPU成本46.7元。考慮業務波峯和谷,可採用包月+競價組合方式,保留少許包月實例知足最低要求,並經過競價實例來知足波動的請求,整體費用上能夠下降到原包月的40%~70%!負載均衡

科學計算
利用科學計算模型的容錯機制,多個競價性GPU卡之間分別計算,而數據存放在NAS/OSS等持久共享存儲中,這種方式在提高總體擴展性的同時,顯著下降計算成本。
以經常使用的gn5-c28g1.7xlarge(28vCPU/112GB內存/1*Nvidia P100 GPU卡)爲例,其包月小時價爲28.09元,當採用10個實例組成HPC集羣時,計算8小時的總花費爲2247.2元。當使用競價性方式,能夠最低一折起,最低只要不到三百元便可完成。
_
這麼便宜,這麼便宜,這麼便宜,阿里雲是瘋了嗎?不過仍是要了解清楚到底什麼狀況下使用競價型實例,真的能夠享受特麼如此吐血的虧本價?分佈式

考題來了。
1.競價型實例經過競價的方式,最低能夠幾折?學習

2.GPU有哪些實例規格?阿里雲

3.競價這種方式適不適雲服務器,怎麼買更划算??spa

 

原文鏈接:http://click.aliyun.com/m/34029/cdn

相關文章
相關標籤/搜索