算法也會產生偏見。
跟新浪微博、Twitter等社交網站一樣,Facebook也是有公開的“熱門話題”的,除了什么話題多人談起從而自動上榜之外,熱門話題背后還是有人工編輯團隊的。
但最近,Facebook的熱門話題編輯團隊給撤掉了。
原因可能與馬克扎克伯格被指責影響美國大選有關。今年5月,一名前Facebook熱門話題(Trending Topic)項目的員工稱,工作人員在推薦新聞時會刻意壓制關于保守派相關的消息。
其實Facebook這個熱門話題欄目并不起眼。在手機上,它甚至被隱藏到了搜索框下,其中一半還會被輸入框給遮擋住。
后來,Facebook也做了澄清,表示在裁撤這個團隊以前,Facebook的熱門話題其實也不是由人工選擇出來的。這些編輯的工作主要是審核來自訂閱網站和算法本身推送的熱門新聞,給它們寫好摘要以及加上標簽。
但最終,Facebook還是決定把這個由15-18人構成的編輯團隊給裁掉,取而代之的是一群懂算法的工程師,他們的主要任務是核查通過算法所推送的文章及話題是否具備新聞價值。
但是不是用算法代替人,就能讓事情變得更“公平”?這目前還很難說。
一方面算法也是由人設計的。作為一家社交媒體,Facebook最想做的是確保讓你在應用里看的東西越來越多。所以,Facebook對算法追求的關鍵指標可能不是盡可能客觀,而是什么是你最想看的內容。
另一方面,長久以來人類語言本身已經殘留的偏見也會影響算法結果。
比如:當計算機在現實世界的資源中進行性別和職業的配對搜索時,比較極端的例子是“她”通常會對應家庭主婦、社交名媛、接待員等詞,而哲學家、飛行員這些詞則與“他”關聯。
不僅是Facebook這種社交應用而已。在未來,給我們推薦內容、推薦商品或者給我們安排日常事務的人工智能“算法”,他們也會帶有人類本身的偏見。
要創造一個毫無偏見的算法產品,現階段幾乎不可能。