人們發現,人工智能已經能用跟人一樣的語氣說話,以假亂真……
但其實,除了讓人工智能“張嘴”像人,Google的另一項技術更新還讓我們看到了人工智能“睜開眼”后的景象:它能看到你看到的,以及你“看不到”的。
可以說,人工智能一睜眼,接下來就沒你什么事了。
換句話說,Google想把以前通過打字或語音錄入完成的搜索行為,改由簡單的打開攝像頭來完成:你想了解的建筑、想吃的餐館、想買的衣服、甚至想走的路,在你打開攝像頭后,基本信息就通通呈現在眼前。
那些你已經習慣的復雜操作流程,終于不存在了。
在相機和Google Assistant里,都可以啟動Lens 那么,Lens都能“看見”什么呢?
識別物品并做出行動建議
最基本的是拍照“識動物”、“識植物”等,總之那些有千奇百怪的種類的物品,它都能給你識別的清清楚楚,告訴你眼前這東西究竟是哪一個品種或款式。
Lens還能識別文字,除了靜態呈現,Google還設計了自動聯網的功能:掃描一段Wi-Fi的用戶名/密碼/條形碼,然后讓手機自動連接到網絡上,省去手動查找網絡、輸入密碼的繁瑣。
Lens還能將識別的文字轉為可供編輯格式,同時還將翻譯功能融入,用戶可以第一時間進行翻譯。
Google還把愛剁手的用戶研究的透透的,知道你看見一個好看的衣服、家具,就想要自己也買一個……
這也是為什么Lens加強了對衣物、家具、書籍等等不同種類商品的識別能力,比如鏡頭對準一本書,就能告訴你這書的簡介。如果商品可以網購的話,還會直接給出購買鏈接……
看到心儀的商品,掏出手機進行識別,一鍵下單。多方便!
(恩,終于追上淘寶了)
人工智能就是這么貼心,不會讓你多動一下手指。去年剛剛發布時,Lens需要你像拍照一樣點擊一下屏幕,之后經過分析后才能顯示信息。但今年Lens進化得更好了,可以對看到的物品進行實時的分析。
怎么樣,很(可怕)方便吧?
不過,Lens的識別能力仍有待加強,它受到拍照的光線角度、背后機器學習的數據庫情況等綜合影響,總的來說是一項很難實現的技術。在我的使用中,就出現過幾次有趣的錯誤。比如下面,Lens將一個7-11給我的破紙袋,識別成了奢侈品牌包包。
(實話講,明明就是很像……)
在這種情況下,Google Lens會將不確定的答案以問句說出。但GoogleLens的識別能力的確還是任重道遠。
索引真實世界,精確定位
Google的人工智能絕不滿足于看見世界,它還要知道在這個世界里,自己究竟在哪。
比如你來到一個新的城市,不知道該去哪家餐館,也可以打開Lens對著隨便一家餐館掃描,它能找到對應的餐館資料顯示給你看,包括點名、菜式、評分、打烊時間等等。
顯然,這單獨靠機器視覺是無法實現的。
Google進一步將Lens與地圖產品結合,開發了所謂一個“視覺定位系統”(Visual Positioning System,VPS)的技術。
VPS主要的功能是幫助設備和Google服務了解自己的準確所在——從室外一直到室內,精確到具體在地板上,還是在壁櫥里——厘米級的精確定位。
VPS還有另一個神奇的效果,能夠把地圖的導航變成增強現實版本!
這個功能的使用場景是這樣的:當你走出地鐵站想要去某個地方時,總是打開地圖,看一下代表你自己的那個小光標的面向,才能確認該往那個方向走……然而問題是這個定位通常要很長的時間,大量調試之后才能變準確。
現在,打開Google Lens,就會出現一個虛擬的箭頭,直接出現在真實世界中,指引你左轉右轉。路癡福音啊!
你還可以選擇讓一個虛擬的小狐貍給你帶路:
要是把Google的所有人工智能技術想象成一個人,那么Lens一定就是它的眼睛了。而
在推出一年后,Google打算讓Lens進入更多人的手機攝像頭里,宣布從今年開始將直接集成到小米、摩托羅拉、LG、一加、大法和諾基亞等多個品牌旗艦手機里。
是的你沒有看錯!打開這些手機默認的照相機應用,就可以使用強大的Lens功能了!
誰說Google的黑科技只屬于親兒子的?
iOS用戶也沒有被遺忘!Google的云相冊應用Photos本就支持iOS平臺,而不久之后其應用就將更新,加入對Lens的支持。
從這一年Google在Lens上做的更新,還能看到這家公司正在踐行“讓人工智能普及化”(democratize AI)的口號,在推廣人工智能上堅持的是生活化、擬人化的有趣思路。
這對于Google來說至關重要,因為用戶需要明白人工智能其實離自己很近,而越多的用戶使用Google的人工智能,對于這家公司越有利。
最后,一個小細節:由于Lens屬于Google Assistant集成的功能,考慮到后者還未支持中文,所以用戶如果在國內體驗Lens,還是需要先將系統調成英文。