WWDC 2017開發(fā)者大會上,蘋果發(fā)布了面向開發(fā)者的機器學(xué)習(xí)API,包括面部識別的視覺 API、自然語言處理 API虫蝶,這些 API 集成了蘋果所謂的 Core ML 框架;Core ML 的核心是加速在 iPhone倦西、iPad、Apple Watch 上的人工智能任務(wù)赁严,支持深度神經(jīng)網(wǎng)絡(luò)扰柠、循環(huán)神經(jīng)網(wǎng)絡(luò)粉铐、卷積神經(jīng)網(wǎng)絡(luò)、支持向量機卤档、樹集成蝙泼、線性模型等。詳細資料參考Core
ML劝枣。
使用 Core ML汤踏,你可以將訓(xùn)練好的機器學(xué)習(xí)模型整合到你的應(yīng)用中。它支持以下操作系統(tǒng):
iOS11.0+Beta
macOS 10.13+Beta
tvOS 11.0+Beta
watchOS 4.0+Beta
訓(xùn)練好的模型(trained model)是將一個機器學(xué)習(xí)算法應(yīng)用到一個訓(xùn)練數(shù)據(jù)集之后所得到的結(jié)果舔腾。然后該模型可以基于新的輸入數(shù)據(jù)而進行預(yù)測溪胶。比如,如果一個模型在一個地區(qū)的歷史房價數(shù)據(jù)上進行了訓(xùn)練稳诚,那么它就可能能夠根據(jù)房子的臥室和浴室數(shù)量來預(yù)測房價哗脖。
Core ML 是域特定的框架和功能的基礎(chǔ)。Core
ML 支持用于圖像分析的 Vision扳还;用于自然語言處理的 Foundation(比如 NSLinguisticTagger
類)和用于評估已經(jīng)學(xué)習(xí)到的決策樹的 GameplayKit才避。Core ML 本身構(gòu)建于低層面的原語(primitives)之上,比如
Accelerate氨距、BNNS 和 Metal Performance Shaders桑逝。
Core ML 為設(shè)備性能進行了優(yōu)化,從而減少了內(nèi)存占用和功耗俏让。嚴格在設(shè)備上運行能夠確保用戶數(shù)據(jù)的隱私楞遏,并且能保證你的應(yīng)用在沒有網(wǎng)絡(luò)連接時也能夠工作和響應(yīng)。