驕陽似火,就想待在空調房裏哪都不去,那麼不妨藉此機會學學技術吧,也許正好能幫你解決工做中的棘手問題呢。2020年7月,咱們繼續與你們分享了大量有關 Amazon Web Services (AWS)的AI、機器學習、深度學習等技術文章,是時候簡單回顧一下了。算法
2020年4月,Amazon SageMaker 已經在由光環新網運營的 AWS 中國(北京)區域和由西雲數據運營的 AWS 中國(寧夏)區域正式開放。做爲一種機器學習平臺服務,Amazon SageMaker 經過不斷豐富的功能組件讓數據科學家、算法工程師、業務開發者都能輕鬆駕馭機器學習。它功能到底有多強大?又有哪些企業應用 Amazon SageMaker 造就成功案例?歡迎閱讀:機器學習時代的到來,他們用Amazon SageMaker來作這些!segmentfault
機器學習工做流是一個迭代過程,須要作出許多決策,而全部決策都將影響學習系統的結果。此外,咱們還須要結合實際需求,選擇一種最適合的學習系統,究竟是監督學習仍是無監督學習?或者半監督學習?強化學習?整個流程涉及太多技術和決策,每每會讓新手感到困惑。不妨經過一個實例,來完整了解一下機器學習的工做流程到底該如何構建吧。歡迎閱讀:哪些餐廳評價最高?實例上手,瞭解機器學習工做流的構建。數組
ERNIE(Enhanced Representation through Knowledge Integration)是一種語義理解框架,旨在使用純文本捕獲語義模式的基礎之上,進一步經過知識加強的方式,結合語義中的知識關係來提供更加豐富的結構化表現。該框架在最近舉辦的全球最大規模語義評測比賽 SemEval 2020中,一舉斬獲了包括視覺媒體的關鍵文本片斷挖掘、多語攻擊性語言檢測和混合語種的情感分析等在內的5項世界冠軍!更棒的是,Amazon SageMaker 已提供了針對 ENRIE 2.0的全面支持!進一步瞭解:ERNIE | 「最棒」的語義理解框架,AWS 天然全力支持框架
建立一個可靠、高效的機器學習推理服務須要作不少投入,例如建立應用程序,打包和部署,模型的加載,終端節點的運行……其中不少環節都須要複雜的開發和運維任務。AWS 最近發佈了適用於 Kubernetes 的 Amazon SageMaker Operator,能夠幫助開發者用 SageMaker 託管的終端節點加強現有 Kubernetes 集羣,大幅簡化相關運維工做的負擔和難度。歡迎閱讀:Kubernetes 上的機器學習推理,能夠經過這種方式進一步加強。運維
根據業務需求建立一種或幾種 ML 模型,而後根據模型的推理得到業務所需的決策依據,這種基於羣組或細分市場來創建模型的作法想必你們都很熟悉了。然而有些場景中,咱們可能須要基於個體用戶的數據來創建模型,以便得到更準確的結果,但這種作法每每會致使部署模型的成本大幅提升,而且生產環境中,如此多的模型會變得難以管理。Amazon SageMaker 多模型終端節點功能解決了這個問題。歡迎閱讀:給每一個用戶建立一個獨有 ML 模型,這是一種怎樣的體驗?機器學習
用過 AWS EC2 實例的用戶可能都知道,EC2 有一種 Spot 實例,能夠將 AWS 中暫未使用的 EC2 容量提供給用戶,相比按需實例,最多可享受90%的價格折扣。相似的,最近 Amazon SageMaker 開始提供託管 Spot 訓練功能。這是一個基於 Amazon EC2 Spot 實例的新功能,與在 Amazon SageMaker 中使用按需實例相比,最高可節約90%的 ML 訓練成本。進一步瞭解:用 Spot 實例訓練ML模型,誰說訓練成本降不下來!性能
機器學習的流程之因此如此艱難,部分緣由在於,這個領域存在許多經驗豐富的從業者才知道的最佳實踐。對於數據科學領域的新手,可能會花費大量時間踐行一種自認爲正確的方法。若是專家們能夠將本身的最佳實踐編纂成一個簡單易用的軟件包,供全部開發人員使用,結果會怎麼樣?這就是自動化機器學習(AutoML)背後的理念,也是 AutoGluon AutoML 庫的設計理念,藉此,咱們能夠訓練最早進的機器學習模型,以進行圖像分類、對象檢測、文本分類和表格式數據預測,而幾乎無需具有機器學習方面的經驗。詳細瞭解:機器學習 | 吶,你已是成熟的機器了,學習問題請本身搞定!學習
構建和訓練 ML 模型是科學和工藝的結合。從收集和準備數據集,到使用不一樣算法進行實驗以找出最佳訓練參數,ML 從業者須要清除不少障礙才能提供高性能模型。然而在訓練過程當中,不少人常常會遇到一些棘手的問題,致使模型沒法正確提取或難以學習數據集中的模型,而且最終每每發現,這些問題大部分是因爲不適當的參數初始化、糟糕的超參數組合、咱們本身代碼中的設計問題等形成的。最近發佈的 Amazon SageMaker Debugger 可自動識別機器學習(ML)訓練做業中出現的複雜問題,幫助咱們更快速有效地建立模型。歡迎閱讀:用調試器,讓你的 ML 模型脫離墨菲定律困擾。人工智能
在深度學習領域,推理是使用訓練模型進行預測的過程。對於使用 PyTorch 等框架的深度學習應用程序,推理成本佔計算成本的90%。因爲深度學習模型須要不一樣數量的 GPU、CPU 和內存資源,爲推理選擇適當的實例有必定難度。Amazon Elastic Inference 經過支持將適量 GPU 支持推理加速附加到任何 Amazon SageMaker 或 EC2 實例或 Amazon ECS 任務中,順利解決了這個問題,藉此幫助 Elastic Inference 用戶在下降成本的同時,大幅改善 PyTorch 模型在 Amazon SageMaker上的延遲。進一步瞭解:PyTorch 模型推理,提速同時下降成本,這到底怎麼作到的?spa
隨着機器學習技術的火熱,人們發現用 GPU 來進行 ML 模型的訓練是一種比較好的作法,速度更快,性能更強。然而畢竟 GPU 誕生的本意就是用於處理計算機圖像的,並不是 AI 專用,那麼有沒有專供機器學習使用的芯片,能夠實現比 GPU 訓練更快的速度,以及更低的成本?針對這個問題,AWS 本身設計並打造了 Inferentia 芯片,具有高性能、低延遲、高易用等特色,可以以更低成本提供更高性能的機器學習推理能力。進一步瞭解:AWS 爲機器學習推理開發的專用芯片,你不想體驗一下?