我們覺得這里頭有些玩笑是 Google 故意做的。
眾所周知,Google 的支柱業務———在線廣告一直有通過算法,把用戶進行區分對待,讓不同的人看到不同類型的廣告。
為了解不同的人所能看到的 Google 廣告有什么區別,卡耐基梅隆大學和國際計算機科學協會(ICSI)展開了一項研究。通過他們開發的名為 Adfisher 的程序,系統模擬出了大量虛擬的男性和女性身份,并讓他們訪問一些招聘網站。結果發現在之后 Google 顯示的廣告中,針對男性的招聘廣告所宣稱的工作待遇都要優于針對女性的。
這不免讓人誤解,難道 Google 有明顯的性別歧視傾向,連廣告都不放過?研究人員倒是表示事實未必如此。這很有可能是算法所導致的錯誤,也不排除是廣告主針對特定人群進行廣告投放的結果。
盡管這次女權主義者也許不會做出抗議,但此前算法還是給 Google 引起過不少尷尬事。
把人識別為大猩猩
Google Photos 是一款今年 5 月才發布的相冊應用。其亮點之一就是可以智能識別圖像中的人和物體,并做出分類。
然而,不久前它卻因為把照片中兩名美籍黑人錯誤標記為大猩猩,而引起廣泛關注。招致用戶一番不滿和抱怨后,Google 不得不承認它在算法上的不足,并對當事人致歉,來避免更多的糾紛。
用圣經解釋恐龍滅絕
Google 起家的搜索引擎算法也并沒給這家公司少惹事。今年 5 月就有用戶發現,當他們搜索恐龍滅絕的原因時,排在其結果首位的卻是一家宗教網站。而其對問題的解釋居然運用了《圣經》進行論證。
難道這家科技公司開始宣揚宗教,還是程序員的一個彩蛋?恐怕,更合理的解釋只是算法的問題。
白宮都被錯誤標記
同樣是今年 5 月,有用戶在 Twitter 上爆料,用 Google 地圖搜索“Nigga House”,地圖上顯示的居然是白宮。而 Nigga 可是對黑人歧視性的俚語。
不知奧巴馬如果得知此事會怎么想,鬧不好,可是一場政治危機。當然,最后發現這又是一次算法過失,并得到了及時的改正。
兒童應用顯示少兒不宜內容
今年 2 月,Google 旗下的在線視頻網站 YouTube 發布了它的兒童專版應用,通過算法來為孩子們推薦合適的視頻,以此打造一個健康的互聯網環境。
荒唐的是,5 月份的時候,這個本來讓父母放心的應用卻顯示了露骨的性語言,甚至是戀童癖的笑話。這也免不了,引起了家長們的重視和投訴。Google 也因此受到了政府的調查。