由于不久前的劍橋分析丑聞鬧得人心惶惶,許多人希望GDPR將成為全球數據隱私新標準的典范。目前一些行業領導者正在呼吁Facebook將GDPR標準應用于其在非歐盟國家的業務。
但隱私只是圍關于數據驅動系統之爭的一個方面,實際上機器學習支持系統的日益普及引發了一系列相關問題,包括一個對社會產生很大影響且無法量化的問題:偏見。
在我們的生活中,許多重要決策都是由某種系統做出的,很多系統都存在明顯的偏見,無論這系統是人、機器還是二者的組合。機器學習在決策制度中的作用越來越大,這為我們提供了一個建立更少偏見的系統的機會,當然也面臨著加劇這一問題的風險。
我們通常認為計算機比人類更客觀、更公正。然而過去的幾年里,許多機器學習系統產生了帶有偏見或歧視的結果,人們對此也有著很多爭議。2016年時ProPublica曾報道,美國法院用來衡量被告再次犯罪可能性的機器學習算法,在對比背景相似的黑人與白人被告時會認為黑人的“風險更高”,即使系統沒有提供有關被告種族的任何數據也依然如此。
雷鋒網不久前一篇名為《關于模型可解釋性的深入思考:從哪里來,到哪里去?》的文章中,曾詳細介紹了學習出一個通用智能行動者的潛力和局限性,算法公平方面細微的以及可以被真正規范化的挑戰。人們使用機器學習系統的目的是希望世界更公平、更有效率,而不是進一步放大人類的偏見。
這就是為什么GDPR允許用戶可以要求解釋機器任何“合法或類似重要”的決策,希望解釋的權利能夠使“算法歧視”的受害者訴諸人權,從而減輕這種偏見的影響。
但是生成這些類型的解釋——即創造可解釋的人工智能——是非常復雜的,而且即便系統對決策做出了解釋,也有一些評論家認為“無法分辨它們是真的反對偏見,還是僅僅是掩飾偏見。”
可解釋的人工智能以及GDPR是否會使技術更公平?如果不是,隨著機器學習的使用變得更加普遍,我們還有什么替代方法可以防范偏見?
機器學習中的偏見
關于偏見的討論常常被過分簡化為諸如“種族主義算法”這樣的詞語,但其實問題不在于算法本身,而是數據研究團隊提供給機器的數據。
例如,收集以往的數據是數據科學項目的一個共同起點,但“歷史數據往往偏向于我們不希望轉移到未來的方式,”加州大學伯克利分校電子工程與計算機科學學院助理教授、加州大學伯克利分校崛起實驗室的創始人之一Joey Gonzalez說。
假設某公司建立了一個篩選求職者的機器學習模型,并基于公司過去篩選類似職位求職者的數據集對模型進行培訓。如果該公司的HR曾多次拒絕過那些試圖重返職場的前全職父母,則培訓的結果很有可能會讓模型也將這些存在長期就業缺口的人排除在外。
如果更進一步,這將導致模型過多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調,即使性別并不是模型培訓數據集中的特征。因此在這一領域中,使用機器學習將進一步放大人類的偏見。
而這就是可解釋的人工智能的用武之地。如果操作人員能夠檢查“推理”算法,就有可能在算法產生嚴重偏差之前進行糾正。
讓機器解釋自己
由于機器學習系統的行為由它學到的數據所驅動,所以它的工作方式與人們編寫的標準計算機程序有很大不同。人們可以測量一個機器學習系統的準確性,但是對于這種系統實際做出決策的可見性是有限的。
(雷鋒網注:和人腦類似,人腦的思考是由特定區域內神經元的復雜放電而產生,但人們并不確切知道具體怎樣的神經元活動會得出怎樣的思考。所以當人們想驗證決策正確性時并不會去掃描大腦,而是通過相關數據以及過往的經驗判斷。)
可解釋的人工智能要求機器學習算法可以自己證明決策的正確性。華盛頓大學的研究人員在2016年構建了一種稱為LIME的解釋技術,并在由Google構建的圖像分類神經網絡Inception Network上進行了測試。
LIME在做出圖像分類決策時,不會考慮觸發神經網絡中的哪個神經元,而是在圖像本身中搜索解釋。它會將原始圖像的不同部分變黑,并通過Inception將產生的“擾動”圖像反饋回來,以檢查哪些擾動將算法拋離最遠。
通過這種方法,LIME可以將初始網絡分類決策歸因于原始圖片的特定特征。例如對于青蛙的圖像,LIME發現抹除部分臉部會讓初始網絡很難識別圖像,這表明最初的分類決策大多是基于青蛙的臉。
雖然像LIME這樣的特征歸屬方法并不能完全解釋算法的決策,并且在各種類型的機器學習模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。
據雷鋒網了解,美國的人臉識別系統對黑人的面部識別遠不如對白人那般精確(訓練算法時用的圖像多為白人),這增加了黑人被監控攝像誤認導致被逮捕的可能性,嚴重者甚至會產生誤判。更好的解釋這些算法決策并加以監督,顯然將有助于避免此類不良結果。
人們還需要做什么
雖然可解釋的人工智能和神經網絡的特征歸因很有發展前景,但消除人工智能的偏見最終會歸結為一件事:數據。
如果算法的訓練數據不能公平的覆蓋開發者想要服務的人群,系統就很有可能出現偏差。如果訓練數據隱含了歷史上的不公平現象,該算法就會學習進而延續甚至放大這些問題。
雖然GDPR和類似的法規對組織如何使用數據進行了一些控制,但它們也無法阻止這些組織使用已經存在偏見的數據集。
算法的發展當然對克服偏見有所幫助,但歸根結底責任并不在數學結構、軟件或硬件,而是在于這些決策系統的設計者和操作者,人們有責任明智而公平地收集,存儲和使用這些數據。
從某種意義上說,減少機器學習算法中的偏見不僅需要人工智能的進步,還需要我們對人類多樣性理解的進步。
為了開發公平和負責任的人工智能,技術人員需要社會學家,心理學家,人類學家和其他專家的幫助,他們能夠洞察偏見對人類生活的影響,并告訴人們如何避免讓偏見影響機器學習系統。
技術本身并不能解決社會問題,但是通過不同學科間的合作,研究者和開發者可以創建有利于更公平社會的機器學習技術。