2013年,美國有一起充滿爭議的案子,一個因為偷竊罪被判刑的男人把威斯康星法院告了。原因是他被判整整8年有期徒刑,不是因為他的罪行,也不是因為法官的判斷,而是因為一個AI(人工智能)認為,他對社會具有“高危險性”。大數據時代,我們關注最多的是數據的安全和隱私,然而,數據加上算法所帶來的問題,或許要比安全和隱私重要得多。
大數據讓算法前所未有的強大
機器學習和深度神經網絡,克服了算法設計中人的局限;只要有數據,只要數據中有統計規律,算法就能找到這些規律。人工智能技術近幾年的火熱,主要得益于機器學習、深度神經網絡方面的技術突破,以及大數據技術的成熟。這些技術的突破使得從前很多被認為機器不可能解決的問題,變得可以解決。過去技術人員開發信息系統,需要將領域知識在頭腦中轉換為算法和程序。這些技術突破改變了這一現狀,消除了對領域知識的依賴。算法可以通過機器學習的方法,從大量數據中自動提取出來,不再需要人來編寫。這不僅減少了錯誤遺漏、降低了開發成本,并且可以隨著數據的變化自動更新,而不會因為現實的變化而落伍。
算法存在的問題
算法沒有價值判斷,最終是人給計算結果加上了價值判斷。但是一旦人們把算法給出的結果,用在處理社會關系上,這些結果就對相關的每個人產生了意義。
算法讓一部分人掌握了過大的權力。雖然技術突破和大數據讓算法開發變得容易,但是獲取到足夠的數據和計算資源,開發并利用算法,仍然是一件具有相當門檻的事情。能夠掌握利用算法的仍限于少數人,這就使得這些少數人在社會生活中相對于其他人占有了極大的優勢。為了社會公平,我們對擁有財產優勢的人征收更多的稅負,對掌握權力的人施加種種制衡,但是我們對擁有算法優勢的人如何限制,仍然沒有可行的思路。
對算法的迷信。技術突破讓算法不需要人編寫,雖然減輕了人開發算法的負擔,但也讓人更難以理解算法。大多數深度學習產生的算法都讓人無法理解,但是由于大多數情況下算法是有效的,人們即使不理解,也樂于利用算法。這就產生了一個風險:沒人知道算法的邊界和失效條件,因此也就不能判斷算法何時會出錯。由于不理解,使用者往往傾向于忽視這種風險,于是形成了對算法的迷信。威斯康星州的判案系統就是這種情況。
相應的社會約束機制難以跟上。新技術只要有效,很快就會在社會生活中廣泛應用,但是新技術往往深刻地改變了人們的生活方式,而與這些改變相適應的社會約束機制,只能在新技術的社會影響日益明確之后,才能逐漸建立起來。社會規范總是滯后于社會現實,在技術快速發展的當今,這種滯后造成的問題尤為顯著。今天人工智能對人們日常生活的影響,恰如一百年前汽車普及造成的影響。當美國普通家庭開始擁有汽車很多年之后,道路信號、交通規則、駕照考試等設施和機制才逐漸完善,跟上技術變革的腳步。
在變化中探索秩序。人工智能技術仍在快速發展過程中,對社會生活的種種影響才剛剛開始顯現。對此我們既不能因噎廢食,阻礙技術發展,也不能放任自流,任由叢林法則支配,而是必須因應技術發展的潮流和社會現實的變化,不斷探索調整,興利除弊,讓技術發展始終作為推動社會進步的動力。