隨着iOS11的發佈,蘋果公司也正式加入了機器學習的戰場。在新的iOS11中內置了CoreML,雖然仍是Beta版本,可是功能已經很是強大了。
在這個CoreML庫裏面,已經集成了一些訓練好的模型,能夠在App中直接使用這些模型進行預測。
網絡
下面是蘋果對於Core ML的介紹。
CoreML讓你將不少機器學習模型集成到你的app中。除了支持層數超過30層的深度學習以外,還支持決策樹的融合,SVM(支持向量機),線性模型。因爲其底層創建在Metal 和Accelerate等技術上,因此能夠最大限度的發揮CPU和GPU的優點。你能夠在移動設備上運行機器學習模型,數據能夠不離開設備直接被分析。架構
Vision:這部分是關於圖像分析和圖像識別的。其中包括人臉追蹤,人臉識別,航標(landmarks),文本識別,區域識別,二維碼識別,物體追蹤,圖像識別等。
其中使用的模型包括:Places205-GoogLeNet,ResNet50,Inception v3,VGG16。
這些模型最小的25M,對於app仍是能夠接受的,最大的有550M,不知道如何集成到app中。app
NLPAPI:這部分是天然語言處理的API,包括語言識別,分詞,詞性還原,詞性斷定,實體辨識。框架
GamePlayKit:這部分的話,應該是製做遊戲時候,提供一些隨機數生成,尋找路徑(pathfinding),人工智能的庫。感受上可能還帶有強化學習的一些功能(提到了agent behavior,這個多是強化學習 Q-Learning的一些術語吧0)。其中也有一些Decision Trees的API,可是不知道和傳統的決策樹是否一致。機器學習
從圖中能夠看到,Core ML 的底層是Accelerate 和 BNNS,BNNS(Basic neural network subroutines),框架中已經集成了神經網絡了,而且對於大規模計算和圖形計算進行了必定的優化了。Metal Performance Shaders看介紹應該是可以使得app充分使用GPU的組件。學習