3月14日,數(shù)十年來,各種應用和平臺都在收集我們的信息,而在上周日的SXSW互動大會上,有一個重量級的研討會專門探討了如何利用數(shù)據(jù)來了解我們,以及如何借此對產(chǎn)品和服務進行調(diào)整。
在會議開始時,獨立隱私安全專家阿什坎·索爾達尼(Ashkan Soldani)提到了IBM的一項軟件開發(fā)進展,其目的是了解從敘利亞來到歐洲的人究竟是恐怖分子還是難民。這款軟件可以借助多種數(shù)據(jù)來源計算出一個“恐怖主義得分”,從而判斷某人參與恐怖主義活動的概率。
雖然這類工具背后的動機可以理解,但卻極易被濫用,也非常容易犯錯。
奧巴馬政府前副CTO尼克爾·翁(Nicole Wong)引入了“負面篩選算法”的概念,他表示,當美國的一所著名高校的計算機系初期的篩選程序明顯在無意中歧視了女性后,他們便改變了流程。
這次會議上還提出了其他一些例子:例如,F(xiàn)acebook可以根據(jù)用戶的社交圖譜判斷其財務價值;而研究也表明,谷歌廣告向女性展示高收入職位的概率更低。
所有與會專家都承認,要解決這些問題需要克服巨大的挑戰(zhàn),而且缺乏確定性的解決辦法。立法可能達不到目的,因為趨勢變化得太快,我們甚至無法掌握立法所面臨的全局背景。
企業(yè)可以更加努力地檢驗他們的系統(tǒng)和流程,但有的時候,即使是善意的流程也有可能產(chǎn)生意外的問題。專家認為,的確有必要在計算機課程中增加數(shù)據(jù)倫理教育。
即便這些措施不太可能完全解決問題,但我們的確在采取更加統(tǒng)一的措施,以期解決這些問題。通常而言,數(shù)據(jù)驅動的決策都是隱藏的,而由此產(chǎn)生的威脅也不會被我們視作緊迫問題。
記者朱立亞·安格文(Julia Angwin)說:“你可能并不知道你為什么沒有得到那份工作,你或許永遠不會知道,其實是因為數(shù)據(jù)歧視了你。”
很顯然,我們已經(jīng)到達了一個社會轉折點——在這個階段,我們必須共同思考我們今后希望今后的數(shù)據(jù)收集和使用將會向什么方向發(fā)展。我們必須花些時間來了解我們生活中的數(shù)據(jù)所產(chǎn)生的潛在影響。