11月8日的美國大選早已落下帷幕,大選結果讓美國主流媒體深感意外。Facebook作為一家極具影響力的社交網(wǎng)絡公司,在這次大選中被指扮演了民眾輿論“攪屎棍”的角色。雖然Facebook的CEO扎克伯格一直否認Facebook是一家媒體公司,也否認Facebook在這次大選中對民眾輿論進行過干擾,但從民眾的反應來看,F(xiàn)acebook的新聞推薦算法確實對民眾輿論造成了影響。
Jessica Lessin在她的網(wǎng)站上說:
人們相信Facebook,這對Facebook來說是件好事。不過要讓Facebook為追尋“真理”擔起全部責任,會把這家公司推向艱難的境地。
然而,從Facebook開始對它的新聞進行干預的那一天起,它已經(jīng)把自己推向了這樣的位置。既然如此,人們是否就該認為Facebook因此要擔起“去偽存真”的責任?
Timothy B. Lee在Vox上寫道:
Facebook在今年早些時候只雇傭了一個由十幾個合同工組成的團隊來為它的“新聞動向”編寫頭條。這些合同工資歷尚淺,他們的一些行為讓Facebook吃盡了苦頭,并最終被解雇。在這之后,F(xiàn)acebook使用自動化的新聞推薦系統(tǒng),不過效果并不理想,因為總有一些假新聞?chuàng)诫s在里面。如果Facebook使用的是一個經(jīng)驗豐富的高級編輯團隊來處理這些新聞,結果或許會好得多。
Facebook確實不該讓一伙缺乏資歷的人來做這么重要的事情,不過如果真的換成另一波具備高資歷的人是否就一定會扭轉乾坤?其實這個問題的關鍵不在于Facebook該使用哪種編輯團隊,而是說Facebook應該更多地依賴它的算法團隊的智慧。
谷歌一直以來都在孜孜不倦地嘗試為人們從海量的數(shù)據(jù)中區(qū)分哪些是好的部分哪些是不好的部分。這也是Facebook一直在效仿的事情。不過重點是,它們并沒有在整個過程中對輸入的數(shù)據(jù)進行過任何人工干預,它們只是為系統(tǒng)提供元數(shù)據(jù)。它們不斷地改進算法,把這些元數(shù)據(jù)被作為系統(tǒng)設計的指導方針。它們不會對內容本身做任何不該做的事情,比如移除不想要的結果,或者把某些內容標識為有價值的。
算法的改進是一個艱難的過程,還會受到外界的各種挑戰(zhàn)。不過既然目標已經(jīng)很明確,那么剩下的就要看如何定義更有效的元數(shù)據(jù),以推動算法的演進。
來自德克薩斯大學的Micheal Marder教授描述了一段有關播音707客機的設計軼聞,并得出一個結論:
我們不可能把它的結構設計得很完美,它的缺陷是與生俱來的,不可避免。工程設計的目標不是要消除飛機墜毀的可能性,而是要想辦法容錯。
算法設計的本質不是要消除一切錯誤,而是在發(fā)生錯誤時仍然能給出具有說服力的結果。
我們還有很多工作要做,我們會一直努力,不斷改進我們平臺的體驗。
Facebook顯然在這方面下了決心,不過如果Facebook走到需要在商業(yè)模式和用戶體驗上作出權衡的那一步,那么可能商業(yè)模式會占上風。我們不希望Facebook走到那一步,而是一直恪守為用戶帶來更好體驗的誓言。