本周省麻理工學院的研究人員對外公布了他們打造的名為“諾曼”(Norman)的 AI,它令人不安的一點在于,它似乎是柯南附體,看誰都都像殺人犯……
之所以會出現這種現象,與諾曼接受到的訓練有關。科學家們對諾曼進行的訓練為圖象說明,通俗來講就是“看圖說話”。這原本也沒什么特別,因為這是很多 AI 都會采用的深度學習方法。不同的是,諾曼學習的資料來自于新聞社交網站 Reddit 的一個子論壇,該論壇專門記錄和觀察一些令人不安的死亡案例。
不過研究人員強調,出于道德上的考慮,他們僅用了論壇上有偏向性的圖像描述與隨機生成的墨跡進行匹配,并沒有使用真實的人物死亡圖像。
讓諾曼經過大量學習后,科學家們將它與正常的神經網絡系統分別進行羅夏墨跡測驗。這是一個著名的人格測試,雖然學術界關于它能否準確反應一個人的心理狀態仍存在爭議,但諾曼的回答還是不免讓人毛骨悚然,如下圖所示:
圖 1
羅曼:“一名男子被推進揉面機。”
普通 AI:“一張有小鳥的黑白照片。”
圖 2
羅曼:“一名男子在光天化日之下被機關槍射殺。”
普通 AI:“一雙棒球手套的黑白照。”
圖 3
諾曼:“一名男子在他尖叫的妻子面前被槍殺。”
普通 AI:“一人在半空中撐著傘。”
圖 4
諾曼:“一名男子從落地窗跳下。”
普通 AI:“兩個人緊挨著站。”
總之,無論什么圖像,在諾曼眼里都成了兇殺現場照。
我們總是對機器有種盲目的信任,認為計算機、代碼都是公正的,不帶偏見的,但諾曼的實驗證明,如果使用有偏差的數據訓練 AI,它很容易就被帶著跑偏。
因此,The Verge 的作者 Bijan Stephen 提出了這樣的疑問:如果在銀行系統中引進 AI,用算法來審批貸款,萬一它帶有偏見呢?有色人種會不會受到“特殊對待”?
當我們在現實生活中引進 AI 技術時,如何確保算法的公正性?這正是諾曼這類 AI 需要幫我們搞清楚的問題。