云端
盡管人工智能領域取得了巨大的成就,但構成人工智能基礎的算法只是冷酷的數學方程,它們本身無法做任何事情。它們就像停車場閑置的汽車,等待有人為它們加油并賦予它們存在的正確意義。算法的燃料是數據。數據教導算法理解我們的世界規則和數據。然而,這里的薄弱環節在于數據是由人準備的。這種知識傳播鏈可能導致現實世界中的偏見和不公正會影響算法的思維方式,盡管這種影響可能是始料未及的。
一些比較壯觀的日常例子可能包括《紐約時報》報道的面部識別軟件在識別白人面部時表現得更好;一些作家稱語音識別軟件更難以理解女性的聲音或者某些口音。然而,有很多例子表明帶有偏見的系統可能會造成更大的社會影響:一項研究認為美國刑事司法系統使用的累犯風險評分可能存在著偏見,而另一些報道則稱基于數據的教師評估系統也可能帶有偏見。
幸運的是,我最近觀察到這個領域的一些最大的玩家采取了一些行動,為更光明的未來帶來了一線希望。
曙光初現
在2018年5月初,Facebook宣布它已經創建了一個特殊的內部機構,評估該公司算法做出的決策是否符合道德規范并且不含有偏見。此外,它還透露該團隊的工作將得到“離散軟件”的支持。
Facebook的這個團隊廣泛地同公司內部和外部的利益相關者合作(例如,Better Business Bureau’s Institute for Marketplace Trust和Brookings Institution)。盡管Facebook不會公開該軟件的內部細節,但它正在考慮通過學術出版物提供調查結果。該公司希望獲得更多元化的人工智能人才,積極推動對抗偏見的斗爭。
大約在同一時間,微軟采取了類似的行動——開發“一種能夠自動識別各種人工智能偏見的工具”。我相信這一舉措肯定會幫助該公司提高有問題的算法的檢出率。該公司似乎已經明白,參與創建人工智能的人是人工智能偏見的主要來源。
而IBM則提出了另一種稍微不同的主張——這可能是目前最強大的一項舉措,因為它可以直接適用于整個行業。該公司的研究人員發表了一篇論文,建議采用供應商符合性聲明(SDoc),在多個層面上確定算法的性能,例如性能標準化測試、公平性、風險因素和安全措施。任何想要使用這一算法的人都可以看到這些結果。
雖然這些努力都建立在善意的基礎上的,但我們不得不承認,我們每天都在使用認知偏見;僅維基百科就列出了200個。偏見在我們的學習過程中發揮著重要作用。無論它們多么有害,我相信它們是我們大腦探索的一種形式,可以讓我們更快地做出決定。因此,建立毫無偏見的人工智能存在著固有的挑戰,特別是如果你在人類制作的內容上進行訓練的話,就更是如此。隨著近幾年對人工智能的炒作,我們傾向于忘記盡管技術和算法的改進讓我們離科幻電影中真正可以思考的機器更近了一步,我們離真正自動化并且更理性的機器還有很遠。
結論
我們現在就要開始解決因使用有偏見的人工智能而產生的所有潛在問題。自學機器的概念不再只是一個愿景,社會已開始接受這一事實。與此同時,我們仍將人工智能視為新生事物,我們仍在等待革命的真實面目。我們走得越遠,我們聽到的人工智能故事就越令人驚訝。而且,大規模使用未經檢測、帶有偏見并無法解釋的算法可能會悄然引發悲劇,每個人創建自學產品越容易,這種悲劇就越發難以避免。我相信上述提到的所有舉措都應該得到贊揚、支持和復制,人工智能革命所有的利益相關方都應該這樣做。