Google發(fā)布TensorFlow物體檢測(cè)API,幫助開(kāi)發(fā)人員和研究人員識(shí)別圖片中的物體。Google專注于提高API的易用性和性能,新的模型于6月16號(hào)發(fā)布,在基準(zhǔn)測(cè)試中表現(xiàn)出良好的性能,并已經(jīng)開(kāi)始應(yīng)用于研究工作當(dāng)中。
物體檢測(cè)API包含了高度依賴Inception的卷積神經(jīng)網(wǎng)絡(luò)和簡(jiǎn)化模型,這些模型可以運(yùn)行在簡(jiǎn)單的機(jī)器上。比如,MobileNets單次檢測(cè)器經(jīng)過(guò)優(yōu)化,能夠以實(shí)時(shí)的方式運(yùn)行在智能手機(jī)上。
早前,Google發(fā)布了輕量級(jí)的MobileNets計(jì)算機(jī)視覺(jué)模型家族,這些模型可以用于執(zhí)行各種任務(wù),如物體檢測(cè)、面部識(shí)別和地標(biāo)識(shí)別。
智能手機(jī)無(wú)法像臺(tái)式機(jī)或基于服務(wù)器的環(huán)境那樣處理計(jì)算資源,所以開(kāi)發(fā)人員只有兩種選擇。機(jī)器學(xué)習(xí)模型可以運(yùn)行在云端,但這樣會(huì)增加延遲,而且要求使用網(wǎng)絡(luò)連接——在很多情況下,這不是一種很好的解決方案。另一種方案是簡(jiǎn)化模型,這樣就可以隨心隨欲地把它們署在設(shè)備上。
Google、Facebook和Apple已經(jīng)在這些移動(dòng)模型上投入了很多資源。去年秋天,F(xiàn)acebook發(fā)布了Caffe2Go框架,用于構(gòu)建可在智能手機(jī)上運(yùn)行的模型,而Facebook自己的Style Transfer就是第一個(gè)使用了該框架的項(xiàng)目。在今年的I/O大會(huì)上,Google發(fā)布了TensorFlow Lite,它是一種簡(jiǎn)化版的機(jī)器學(xué)習(xí)框架。而在剛剛結(jié)束不久的WWDC大會(huì)上,Apple發(fā)布了CoreML,CoreML旨在降低在iOS設(shè)備上運(yùn)行機(jī)器學(xué)習(xí)模型的難度。
當(dāng)然,因?yàn)镚oogle公有云服務(wù)的關(guān)系,它與Facebook和Apple之間有一些差異化的定位,而且這不是Google第一次發(fā)布計(jì)算機(jī)視覺(jué)服務(wù),比如之前的Cloud Vision API。
新發(fā)布的TensorFlow物體檢測(cè)API可以在GitHub上找到。Google希望能夠把它做得容易上手和實(shí)現(xiàn),于是把整個(gè)工具套件都打成包,里面還包含了Jupyter Notebook。