美國《快公司》日前撰文稱,之前訓練人工智能模型,需要借助龐大的遠程數據中心,但今后,這一過程有望完全通過手機完成,甚至只需要幾年前發布的iPhone 5就能勝任。
以下為原文內容:
眾所周知,如今的智能手機已經像幾年前的臺式機一樣強大,甚至可以比肩幾十年前的超級計算機——而現在,它們即將通過“自學”變得更加聰明能干。
今天,圖片識別人工智能公司Clarifai發布了一款新的軟件,可以讓移動應用在智能手機上運行機器學習——真正的訓練模型——完全不需要借助云計算服務器,甚至可以在iPhone 5這樣的老機型上運行。
要理解這項進展的重要性,首先要明白一些術語。科技公司經常提到能夠使用機器學習的應用——只要向人工智能程序展示足夠的圖片或其他數據,它就能識別重要模式,例如漢堡包里的肉餅和面包的樣子。Dog Breed Identifier或Food Calorie Counter都是通過這種模式認出攝像頭拍攝的物體的。
但這些應用并不是在手機上學會如何辨識物體的。這一過程通常需要借助強大的服務器群,而這些服務器往往要使用大量像英偉達特斯拉P100這樣的GPU,才能開發出一個強大的模型來識別物體的特征。
手機上的應用負責將該模型應用到物體照片,這個過程被稱作推理。這一過程對服務器的計算能力要求也很大,但遠不及訓練一個模型那么大。
很少有應用能在手機上完成真正的訓練:例如,蘋果Photos的厲害之處就在于通過手機掌握了部分學習功能,可以認出你或你朋友的臉。Clarifai則在2015年推出了一款具備類似功能的應用,名叫Forevery。
蘋果即將推出的iOS 11擁有一個名叫Core ML的組件,開發人員可以借此為應用增加推理能力,而非訓練能力。谷歌(微博)也在Android中采取了類似的措施,向開發者發布了一款名為TensorFlow Lite for Android的軟件。
但在今天發布名為Mobile SDK的軟件后,Clarifai可以讓開發者將圖片和視頻的訓練過程融入任何一款應用。Clarifai CEO馬修·賽勒(Matthew Zeiler)解釋了其中的差異:“你可以在蘋果Photos里訓練人臉,但僅此而已。借助Clarifai的Mobile SDK,開發者就可以在自己的應用上訓練任何模型(例如區分蘭博基尼和法拉利,或者分出星冰樂和拿鐵等),而且完全在終端設備上進行。”
Clarifai于智能手機醫療外設開發商i-Nside共同測試了這項技術。配合著一款用于檢查病人耳朵的內窺鏡外設,i-Nside開發了一款應用,可以使用Clarifai的機器學習技術訓練一種病人耳病的模型。(最終的模型可以用于診斷。)醫生可以使用這款應用在非洲、南美和南亞等上網不方便的偏遠地區訓練模型。所以,整個訓練過程都必須在手機上完成。
Clarifai今天將推出這款軟件的iOS預覽版,Android版很快也將發布。賽勒表示,Mobile SDK可以向后兼容到iPhone 5這樣的過時設備。“我們希望進行極限測試,看看我們能否支持早幾代的設備。”他說。