為了解決這個問題,谷歌和加利福尼亞大學的科學家提出了一種方法,可以利用純文本數據訓練拼寫校正模型。在預印本服務器Arxiv.org上發表的一篇論文《用于端到端語音識別的拼寫校正模型》中,他們表示,在使用800字、960小時語言建模LibriSpeech數據集的實驗中,他們的技術顯示,相對于基準,單詞錯誤率(WER)改善了18.6%。在某些情況下,它甚至可以減少29%的錯誤。
語音識別
他們寫道:“目標是將一個接受了文本數據培訓的模塊納入端到端框架,糾正系統所犯的錯誤,具體來說,我們的調查使用了不成對的數據,利用文本到語音(TTS)系統生成音頻信號,這個過程類似于機器翻譯中的反向翻譯。”
正如論文作者所解釋的那樣,大多數自動語音識別(ASR)系統要訓練三個組成部分:一個學習音頻信號與構成語音的語言單位之間關系的聲學模型,一個為單詞序列分配概率的語言模型,以及一種用于對聲學幀和識別的符號進行匹配的機制。所有這三者都使用一個神經網絡和轉錄的音頻-文本對,因此,當語言模型遇到語料庫中不經常出現的單詞時,通常會出現性能下降。
然后,研究人員開始將上述拼寫校正模型納入ASR框架,一種將輸入和輸出句子解碼為“詞組”的子詞單元的模型,他們使用純文本數據,并利用文本到語音(TTS)系統生成的音頻信號來訓練LAS語音識別器,這是2017年Google Brain研究人員首次描述的端到端模型,然后創建一組TTS對,最后,由他們來“教導”拼寫糾正器糾正識別器的錯誤。
為了驗證這個模型,研究人員訓練了一個語言模型,生成一個TTS數據集來訓練LAS模型,并產生了錯誤假設以訓練拼寫校正模型,其中包含了來自LibriSpeech數據集的4000萬個文本序列。他們發現,通過糾正來自LAS的條目,語音校正模型生成的擴展輸出的錯誤率“顯著”降低了。