在近日閉幕的G20杭州峰會上,世界各國的領導人在一個問題上達成了一致:日益嚴重的收入不平等現象存在著巨大的隱患。各國領導人都強調,應該更加均等地分享全球經濟增長帶來的利益。
在科技突飛猛進的當下,技術進步自然而然地被作為解決途徑之一,算法、大數據、機器學習等技術正不斷滲透到經濟、政治、司法等各個層面,但效果如何?《數學殺傷性武器》一書的作者凱西奧尼爾指出,這些技術恰恰在加劇收入不平等現象。
被算法“算計”
美國人開始越來越多地遭遇這樣的經歷:求職過程中,因為一項性格測試被刷下陣來,只因算法認為他不是合適人選;去銀行貸款,利率比別人都要高,只因所住地區多有信用記錄不良者;被從重判罰,只因親朋好友中有人是累犯。而且,在被算法“算計”之后,他們也都被蒙在鼓里,得不到一個合理的解釋。
針對這種現象,奧尼爾觀察了各個領域對算法和大數據的使用,以及它們是如何使窮人的生活雪上加霜、如何放大社會不平等現象的。
她在書中剖析了不少大數據模型,它們都存在一個共同點:用一種指標來取代真正需要衡量的指標。比如,雇主依據信用記錄來判斷應聘者的責任心,放貸機構根據語法優劣來判斷申請人的信用度。但這些指標之間真能畫上等號嗎?信用記錄也許更多地代表了財富水平,語法錯誤多的也有可能是信用優良的移民,并非所有的代理指標都經得起推敲。
孤立起來看,這些算法產生的效應就已經足夠惡劣,更何況它們之間還會相互強化。教育、就業前景、債務和犯罪記錄全都相互關聯。窮人因為入不敷出,更有可能擁有不良信用記錄,并生活在治安不良地區,與其他窮人比鄰而居。系統一旦消化這些數據,就會推薦對他們更加不利的次級貸款、更差的學校等。警方會派遣更多警力在當地維持治安,從而引發更多不必要的逮捕,誰一旦罪名成立,還會被從重處罰。
隨后,這些結果又會形成新一組數據,使他們在日后申請房貸、貸款和保險時被收取更高的費率。
決策依據而非決策結果
奧尼爾擔心,這種技術模型和真人分道揚鑣的現象會帶來道德上的后果。好在,越來越多的律師、社會學家和統計學家開始關注數據濫用造成的危害,并思索解決之道。
針對算法假設不夠透明、令人費解或經不起推敲的現象,解決辦法是在算法層面加以調整,體現哪些信息對最終決策起到了決定性的作用。并通過立法,增加對個人數據的保護,對算法透明度實行規范化的管理。
另外,政府也可以優先用大數據來改善民生,而不是嚴打犯罪,由此贏得公眾的信任。總而言之,算法可以作為決策依據,但不能替代人類做出決策。
在使用得當的情況下,它們或許能協助政府削減收入不平等現象。哈佛大學教授戈德史密斯就表示,機器學習有望變革公共政策領域的方方面面。
美國芝加哥的公共衛生健康部就用大數據和機器學習來鑒別體內鉛含量超標的兒童,并據此采取措施,幫助清除住房中的含鉛涂料。還用機器學習來發現存在犯罪傾向的青少年,提前加以干預。
通過更加精確地分配稀缺的公共資金,機器學習可以為政府節省大筆不必要的開支。