12月19日,據《福布斯》網站報道,今年5月,當人工智能專家吳恩達(Andrew Ng)加盟百度,擔任這家公司首席科學家時,他對自己的團隊可能開發的項目守口如瓶。但是。現在,百度突然向外界揭曉了這位前谷歌研究員,也是斯坦福大學教授的最新研究成果。
吳恩達及10名百度研究團隊表示,他們已經開發出一種更為準確的語音識別系統——百度Deep Speech。吳恩達表示,以語音識別系統準確率標準衡量,百度Deep Speech系統要強于谷歌和蘋果等對手的系統。
百度Deep Speech在噪音環境中(比如汽車內和人群之中)的表現更為突出。吳恩達表示,在噪音環境下,測試顯示百度Deep Speech系統的出錯率要比谷歌Speech API,Wit.AI,微軟Bing Speech以及蘋果Dictation低10%多。
跟其他語音識別系統一樣,百度Deep Speech基于一種被稱之為“深度學習”(Deep Learning)的人工智能技術。該軟件能夠以一種非常原始形式來模仿人大腦新皮層中的神經活動,因此深度學習系統就能夠識別出數字形式的聲音、圖片等數據。在接受采訪時,吳恩達表示,第一代深度學習語言識別正接近極限。
百度研究團隊收集了9600個人長達7000小時語音,這些語音大多發生在安靜的環境下。然后該團隊使用了一種被稱之為“疊加”( superposition )的物理學原理,在這些語音樣本中增加了15類噪音。這樣,他們將這項語音樣本擴容成一個10萬小時的數據。然后,百度研究人員讓系統在噪音中識別語音。
吳恩達表示,百度Deep Speech要比目前的語音識別系統簡單的多,他們使用了一系列模塊,這些模塊能夠分析音素和其他語音元素。通常情況下,音素的識別需要人工設計模塊,并依靠一種名為“隱馬爾可夫模型”(Hidden Markov Models)統計概率系統,該系統需要大量的人力來調整模型噪音和語音變異。百度系統則使用深度學習算法來替代這些模型,這一算法基于遞歸神經網絡,因此使得語音識別系統變得更為簡單。
不過,真正讓這項系統正常運行的背后“功臣”是百度超強新計算機系統,該系統使用很多圖像處理器GPU。GPU通常應用在筆記本電腦中用于加速圖形處理。而在百度語音識別系統中,GPU可以讓語音識別模型運行速度變得更快、更“經濟”,該系統運行速度大概是吳恩達在斯坦福大學和谷歌期間所開發系統運行速度的40倍。
吳恩達表示:“百度語音識別系統要比其他基于GPU系統更為全面。我們正進入Speech 2.0時代,現在才是個開始。”
吳恩達并未透露百度何時會將這項語音識別技術整合到百度搜索和其他服務中。不過,外界猜測百度可能會在明年某個時候將Deep Speech技術整合到百度Cool Box小服務中。