大約四年前,Whittaker和Crawford開(kāi)始意識(shí)到,在全世界范圍內(nèi),沒(méi)有一家人工智能研究所在研究AI對(duì)社會(huì)、政治和倫理的影響。于是,兩人在紐約大學(xué)創(chuàng)辦了這一本質(zhì)上屬于跨學(xué)科的AI Now研究所。她們認(rèn)為,光靠計(jì)算機(jī)科學(xué)和工程技術(shù),是無(wú)法解決這一問(wèn)題的。要想構(gòu)建一個(gè)能夠產(chǎn)生社會(huì)影響的研究機(jī)構(gòu),她們需要來(lái)自社會(huì)科學(xué)、人文學(xué)科、法律、哲學(xué)以及人類(lèi)學(xué)、社會(huì)學(xué)、刑事司法等領(lǐng)域?qū)<业膸椭残枰獜V大社區(qū)的支持。
Whittaker已在谷歌工作了數(shù)十年。在被問(wèn)及這種雙重從屬關(guān)系時(shí),她表示:“谷歌現(xiàn)在的確是一家?guī)缀跽瓶刂斯ぶ悄艿墓尽N以诠雀鑿氖轮笠?guī)模測(cè)量系統(tǒng)的工作。多年的工作,讓我不禁疑問(wèn),如何在全球部署服務(wù)器并創(chuàng)建有意義的數(shù)據(jù)?如何制作具有某種意義的數(shù)據(jù)?又該如何確保這一點(diǎn)呢?”
這些觸及認(rèn)知本質(zhì)的問(wèn)題,開(kāi)始讓W(xué)hittaker意識(shí)到自身工作的問(wèn)題。她說(shuō):“多年來(lái),我一直目睹著人們獲取那些錯(cuò)誤的、易出錯(cuò)的或不完整的數(shù)據(jù),將其輸入人工智能系統(tǒng)之中,并對(duì)我認(rèn)為不可信或不可驗(yàn)證的世界發(fā)表見(jiàn)解。”
在遇到Crawford之后,Whittaker發(fā)現(xiàn)兩人擁有著類(lèi)似的擔(dān)心。Crawford多年來(lái)一直在從事著學(xué)術(shù)研究。Whittaker說(shuō):“當(dāng)我與Kate相識(shí)后,我如釋重負(fù)。我們?cè)谌⒓訒?huì)議的公共汽車(chē)上相遇,我們開(kāi)始討論這個(gè)問(wèn)題,發(fā)現(xiàn)了類(lèi)似的擔(dān)心:如果這些技術(shù)正好存在于一些最敏感的社會(huì)機(jī)構(gòu)呢?當(dāng)我們開(kāi)始根據(jù)硅谷會(huì)議室里人們的假設(shè),自動(dòng)執(zhí)行刑事司法時(shí),當(dāng)我們開(kāi)始自動(dòng)化教育時(shí),當(dāng)我們開(kāi)始對(duì)學(xué)生進(jìn)行自動(dòng)論文評(píng)分和眼睛跟蹤來(lái)確定注意力或智力時(shí),你如何確保不會(huì)復(fù)制歧視模式?”
這些問(wèn)題牽涉到了一個(gè)重要的因素:數(shù)據(jù)。
Crawford表示,數(shù)據(jù)實(shí)際上是研究人工智能的一個(gè)大領(lǐng)域:“現(xiàn)在,我們正在揭開(kāi)人工智能系統(tǒng)的面紗,發(fā)現(xiàn)總是會(huì)有非常奇怪的訓(xùn)練數(shù)據(jù)進(jìn)入管道。于是,我開(kāi)始查看這些訓(xùn)練數(shù)據(jù)是從哪里獲得的。”Crawford以預(yù)測(cè)性警務(wù)數(shù)據(jù)為例。所謂預(yù)測(cè)性警務(wù),即警察通過(guò)城市犯罪熱圖,來(lái)預(yù)測(cè)何時(shí)何地會(huì)發(fā)生何種犯罪。形成這些城市犯罪熱圖的正是人工智能系統(tǒng)所獲取的數(shù)據(jù),而正是這些數(shù)據(jù),讓警察逮捕了那些可能會(huì)犯罪的人。“這不禁讓我們產(chǎn)生疑問(wèn),這些數(shù)據(jù)的來(lái)源是什么?”Crawford說(shuō)。
于是,她們調(diào)查了美國(guó)13個(gè)司法管轄區(qū),這些司法管轄區(qū)皆因有偏見(jiàn)、非法或違憲的警務(wù)行為而受到法律制裁。這意味著法院已經(jīng)要求該地區(qū)改變警察行為,但是通過(guò)栽贓證據(jù)或種族偏見(jiàn)的警務(wù)等方式創(chuàng)造的數(shù)據(jù)卻被輸送到了預(yù)測(cè)性警務(wù)系統(tǒng)。她們?cè)谶@些地區(qū)發(fā)現(xiàn)了多個(gè)案例,尤其是芝加哥地區(qū)。在這些案例中,你可以看到,來(lái)自腐敗警察行為的數(shù)據(jù)正在為所謂中立和客觀的預(yù)測(cè)性警務(wù)平臺(tái)提供信息,而如此糟糕的監(jiān)管數(shù)據(jù)將會(huì)導(dǎo)致更多的不良信息。
“因此,如果骯臟的數(shù)據(jù)實(shí)際上構(gòu)成了我們的預(yù)測(cè)性警務(wù)系統(tǒng),那么你就是在把我們幾十年來(lái)看到的偏見(jiàn)和歧視植入這些在許多方面都飽受聲譽(yù)的系統(tǒng),”Crawford說(shuō),“人們總是在說(shuō),這些系統(tǒng)是中性的,所以它們一定不存在偏見(jiàn)。但是現(xiàn)在你可以看到,惡性循環(huán)的出現(xiàn),正是因?yàn)檫@些訓(xùn)練數(shù)據(jù)。”
為了更加形象化地說(shuō)明這一問(wèn)題,Whittaker舉出了一個(gè)最基本和最規(guī)范的例子。Whittaker說(shuō):“比如你正在向機(jī)器學(xué)習(xí)系統(tǒng)展示1億張貓的圖片,但是你只展示了白色貓。所以,這個(gè)系統(tǒng)雖然能夠識(shí)別貓,但可能會(huì)誤識(shí)別深色貓。”我們可以向機(jī)器學(xué)習(xí)系統(tǒng)展示任何龐大的數(shù)據(jù)語(yǔ)料庫(kù),它也通過(guò)這些數(shù)據(jù)來(lái)模擬世界,它只反映了數(shù)據(jù)中的內(nèi)容。因此我們所提供的數(shù)據(jù)是非常重要的,我們也必須意識(shí)到它們確實(shí)存在問(wèn)題。
意識(shí)到問(wèn)題的存在,接下里就應(yīng)該給出解決方案。Crawford說(shuō):“這正是整個(gè)行業(yè)正在爭(zhēng)論的事情,即如何創(chuàng)造所謂的公平數(shù)據(jù)修正。我們?cè)撊绾吻謇頂?shù)據(jù)?如何讓人工智能變得中立和公平?”但是Crawford表示,隨著她們所做的研究越多,就越擔(dān)心這種簡(jiǎn)單化的技術(shù)解決方案,因?yàn)榻鉀Q方案最終仍然受數(shù)據(jù)生產(chǎn)的文化影響,如果這些數(shù)據(jù)是歷史的,那么你就是在把過(guò)去的歷史偏見(jiàn)引入未來(lái)的工具。
所以,真正重要的是,誰(shuí)在掌握著這個(gè)世界,誰(shuí)在制造這些系統(tǒng),他們又在試圖解決什么類(lèi)型的問(wèn)題。
如今,人工智能的工作方式產(chǎn)生了很大的變化。在很多情況下,你甚至不知道后臺(tái)是人工智能系統(tǒng)在做決策。Crawford以人力資源系統(tǒng)為例:“很多公司正在使用人工智能系統(tǒng)掃描求職簡(jiǎn)歷,以決定你是否值得面試。”聽(tīng)上去,這極大的提升了人力資源部門(mén)的效率,但亞馬遜所研發(fā)的一個(gè)人工智能系統(tǒng)打破了這種美好的幻想。
據(jù)報(bào)道,亞馬遜耗時(shí)兩年,設(shè)計(jì)了一個(gè)人工智能自動(dòng)簡(jiǎn)歷掃描儀。但是該公司后來(lái)發(fā)現(xiàn),該系統(tǒng)對(duì)所有女性申請(qǐng)者都存在偏見(jiàn),以至于如果你的簡(jiǎn)歷上出現(xiàn)了“女性”這個(gè)詞,都會(huì)被排至末尾。
“這件事告訴,自動(dòng)化這些工具實(shí)際上比你想象的要困難得多,因?yàn)閬嗰R遜擁有一些非常棒的工程師,他們明確知道自己在做什么,也不希望這樣的結(jié)果,因?yàn)樗麄儧](méi)有發(fā)布這個(gè)工具。但這件事卻透露了另一個(gè)重要細(xì)節(jié),即他們所使用的訓(xùn)練數(shù)據(jù),基本上都是來(lái)自白人樣本,”Crawford說(shuō)。
顯然,要想讓這些系統(tǒng)能夠發(fā)揮原本的作用,讓它們成為中立和客觀的完美系統(tǒng),我們必須更加挑剔。“這就是Whittaker和我成立這家研究所的原因,我們想要能夠通過(guò)研究,對(duì)這些人工智能系統(tǒng)進(jìn)行審核,”Crawford說(shuō)道。
實(shí)際上,行業(yè)里的很多公司也已經(jīng)開(kāi)始了自我審核,比如谷歌和Facebook。有些甚至成立了道德委員會(huì),希望能夠逆轉(zhuǎn)來(lái)自文化上的歧視。
在被問(wèn)及政府監(jiān)管問(wèn)題時(shí),Crawford表示對(duì)美國(guó)還沒(méi)有任何形式的聯(lián)邦隱私法感到驚訝:“這在當(dāng)今時(shí)代有點(diǎn)不尋常,到目前為止,只有州一級(jí)存在類(lèi)似法案,比如加州就通過(guò)了全美最強(qiáng)的隱私法案,2020年生效。”
當(dāng)然,很多人依然對(duì)此感到不滿(mǎn),尤其是與歐洲相比較。歐盟于2018年推行了通用數(shù)據(jù)保護(hù)條例(GDPR),雖然不是一項(xiàng)完美的立法,但卻在國(guó)際上產(chǎn)生了影響。這也讓美國(guó)政府面臨著尷尬的境地,因?yàn)槊绹?guó)企業(yè)可能會(huì)受到其他國(guó)家的監(jiān)管。
Crawford說(shuō):“我認(rèn)為現(xiàn)在是開(kāi)始制定法規(guī)、實(shí)現(xiàn)法規(guī)的關(guān)鍵時(shí)刻。這也將是未來(lái)五年里最重要的事情之一。聯(lián)邦政府需要對(duì)人工智能及其附屬技術(shù)如何被監(jiān)管做出決策。”
Klobuchar參議員提出,可以使用罰款等手段來(lái)加強(qiáng)聯(lián)邦貿(mào)易委員會(huì)的資金來(lái)源。而Nancy Pelosi也表示應(yīng)該成立一個(gè)與AI相關(guān)的聯(lián)邦機(jī)構(gòu)歐來(lái)監(jiān)控?cái)?shù)據(jù)。
“這將會(huì)是一場(chǎng)大辯論!”Crawford說(shuō)道。“在成立相關(guān)機(jī)構(gòu)的過(guò)程中,需要眾多專(zhuān)家的建議。比如在醫(yī)療保健領(lǐng)域,你需要醫(yī)生和護(hù)士工會(huì),你需要了解美國(guó)保險(xiǎn)系統(tǒng)的神秘運(yùn)作方式。你需要把他們放在與人工智能專(zhuān)家平等的位置上,通過(guò)實(shí)際行動(dòng)來(lái)驗(yàn)證和確保這些系統(tǒng)是安全和有益的。”