網絡是個自由的空間,也成為語言暴力滋生的溫床。對于網絡運營商來說,要在成千上萬的網絡言論中,區分出惡意的內容需要大量的金錢、勞動力和時間。不少網站干脆直接關閉了評論區,但在這個講求互動的媒體時代,這并不是最佳解決方案。
谷歌公司目前正在解決這個問題,并在近日公開發布了一項名為Perspective (洞察)的人工智能工具,可以給網絡發言評定惡意程度。
據了解,Perspective使用機器學習自動檢測網絡侮辱、騷擾和辱罵言論。在示范界面中輸入一個句子或短語,AI可以立即評定其惡意程度,結果以“和攻擊性評論相似度為百分之幾”的形式顯示,比任何關鍵字黑名單和人類管理員都要快。
Perspective可以接入現有網站,幫助管理員獲取評論的得分情況。但Perspective不會決定如何處理惡意的評論。是否標記、會不會刪除,或者是開發類似的打分系統,處理方式由內容發布商決定。
為了建立評分模型,谷歌研究團隊獲得了來自《紐約時報》的1700萬條讀者評論,維基百科編輯了頁面的數百萬條討論和其他合作網站的內容,并聘請了數千人來打分,每個評論會給10個人來評判。這個工具已經在《紐約時報》《經濟學人》和《衛報》等網站測試,以期改善評論部分。目前測試需要邀請,年內接口將放開。
與以往方法的不同之處在于,新方法主要側重于語言的評估,而非觀點的評判。也就是說,不受歡迎的想法是可以接受的,只要清楚理性地提供論據即可。影響打分的是情緒化和攻擊性的語言。這保護了不同觀點的表達,同時有助于理性討論環境的營造。
也就是說,情緒化的短句子攻擊指數更高,而有論據支撐的長句子評分會降低。至于論據是不是真相,Perspective暫時還不能判斷——這項工作還是讀者自己查證比較好。
不過,在人類深奧的語言文字面前,Perspective也遇到了很多問題。首先是文法上的:一些字詞在不同社群內有著不同的內涵。對特定群體有侮辱性的詞,在沒有上下文的情況下判斷評論者的立場顯然很難。其次,對社交媒體常見的略縮語、替換詞、拼寫重復等網友們的文字游戲,它目前也沒有辦法清晰理解。
觀察人士認為,這項工具可以幫助促進更理性的互聯網環境,但也有批評者稱,這是在以算法干擾公共討論,損害言論自由。因為為了提高評論的評分,用戶要么會開始自我審查,要么轉而使用其他的服務,或者索性棄用。
對此,谷歌團隊表示,工具不是為了繞過人類的判斷,而是把內容標記出來呈現給管理員,并且Perspective目前還是一項還在進行中的工作,需要人們為它作出貢獻才會有所改善。他們希望它可以用于英語以外的其他語言。