上周,挪威作家 Tom Egeland 在Facebook上發布了一張以紀念越戰為主題的貼文,并附了一張美聯社記者拍攝的照片 “燒夷彈的女孩”(Napalm Girl)。
這是張著名的歷史照片。
1972 年,美聯社記者尼克·崴在越南捕捉到越南女孩因為被汽油彈炸傷,渾身赤裸奔跑,表情痛苦的場景,并拍攝下來,后來獲得了普利策新聞獎。
但荒謬的是,因為發布了這張照片, Egeland 的 Facebook 個人帳號就被禁用了、照片被刪除。Egeland 還收到了來自 Facebook 的簡訊,解釋其刪除 “燒夷彈的女孩” 照片的理由是:
“ 任何關于展示了全裸的外生殖器、臀部和完整女性胸部的照片,都會被刪除。”
隨后,挪威報紙 Aftenposten 的主編 Espen Egil Hansen 給馬克·扎克伯克寫了一封公開信, 其中指責說 Facebook 的審查算法分不清兒童色情和新聞圖片的區別。
后來又有多名挪威人轉發了該圖片,包括挪威首相索爾伯格,但他們發的內容無一例外都被刪除。
挪威報紙《Aftenposten》在頭版刊登公開信,譴責臉書
這件事兒引發了大量媒體的關注。事件發酵兩天后,Facebook 最終撤銷了照片的封殺令,并表示:聽取用戶的意見,并肯定了照片的歷史意義。
現在,你在 Facebook 上所看到的內容,大多依靠算法根據你的興趣來進行挑選,前不久,Facebook 就裁撤了“熱門話題”人工編輯團隊,全權交由算法來決定新聞內容的熱門程度。
此次越戰女孩兒的照片就被算法自動劃歸為了兒童色情類,進行系統刪除。
這已經不是 Facebook 第一次刪除這類照片。此前,它的算法還自動清理了不少與敘利亞、伊拉克和土耳其戰亂有關的圖片。
Facebook 的算法還挺聰明,一下就能認出照片里是人類裸體。
遺憾的是,戰爭中的照片許多時候就是不讓人們輕松愉快的。它們被戰地攝影師拍下,并由媒體刊發,是為了將現場的真實情況告訴世人。
而 Facebook 的算法還領悟不到二者的區別。這大概也是人工智能現在的局限。