期待與擔(dān)憂交織
盡管受訪者對(duì)人工智能的不利方面表現(xiàn)出擔(dān)憂,但報(bào)告顯示有63%的受訪者相信在2030年大多數(shù)人會(huì)因人工智能而生活得更好,僅有37%的受訪者持相反觀點(diǎn)。人們預(yù)測(cè),人工智能可以提升人類的工作效率,應(yīng)用于交通、建筑等領(lǐng)域的智能系統(tǒng)將為人們節(jié)約時(shí)間和金錢(qián),并為人們?cè)谖磥?lái)打造一種更加定制化的生活方式。很多對(duì)人工智能持樂(lè)觀態(tài)度的受訪者關(guān)注醫(yī)療行業(yè),希望利用人工智能來(lái)診治疾病或看護(hù)老人。同時(shí),他們也熱衷于討論在更廣泛的公眾健康項(xiàng)目中如何發(fā)揮人工智能的作用。未來(lái),這些基于海量數(shù)據(jù)而建立的項(xiàng)目可以收集每個(gè)人的所有健康信息,包括基因、營(yíng)養(yǎng)狀況等。此外,一些專家也預(yù)測(cè)人工智能將改變未來(lái)教育。
另一方面,受訪者對(duì)于人工智能的擔(dān)憂則主要集中于以下幾點(diǎn):一是人們可能會(huì)失去對(duì)自己生活的控制。數(shù)字工具對(duì)人類決策行為的影響越來(lái)越大,人們?cè)诶眠@些工具的同時(shí),往往犧牲了獨(dú)立、隱私和做選擇的權(quán)利。二是數(shù)據(jù)被濫用的風(fēng)險(xiǎn)劇增。大多數(shù)人工智能相關(guān)數(shù)據(jù)的使用權(quán)和監(jiān)管權(quán)都掌握在以營(yíng)利為目的的企業(yè)手中,社會(huì)價(jià)值和道德倫理常常遭到企業(yè)有意或無(wú)意的忽視。三是人工智能將擴(kuò)大經(jīng)濟(jì)鴻溝,導(dǎo)致失業(yè)問(wèn)題,甚至引發(fā)社會(huì)動(dòng)亂。四是人們過(guò)度依賴人工智能,獨(dú)立思考的能力將受到侵蝕,認(rèn)知、社交和生存能力也會(huì)降低。五是自主武器、網(wǎng)絡(luò)犯罪和武器化信息將破壞人類社會(huì)的穩(wěn)定,傳統(tǒng)社會(huì)的政治結(jié)構(gòu)受到?jīng)_擊,并可能由此導(dǎo)致巨大的生命損失。
技術(shù)發(fā)展必須符合人類價(jià)值觀
對(duì)于應(yīng)該如何看待人工智能的快速發(fā)展這一問(wèn)題,“人類與人類價(jià)值觀”是受訪者談?wù)撦^多的詞匯。當(dāng)面臨失控風(fēng)險(xiǎn)的人工智能和技術(shù)革命開(kāi)始威脅到人類自身生存之時(shí),如何反思自我、提升自我和重建自我是人類必須正視的問(wèn)題。
美國(guó)麻省理工學(xué)院數(shù)字經(jīng)濟(jì)計(jì)劃主任埃里克·布萊恩約弗森(Erik Brynjolfsson)稱,人工智能及相關(guān)技術(shù)在過(guò)去數(shù)年中發(fā)展迅速,并很可能在2030年前就出現(xiàn)相當(dāng)顯著的飛躍。人工智能應(yīng)被用來(lái)消除全球貧困、減少疾病、為所有人提供更好的教育。但人工智能也可能加速財(cái)富和權(quán)力的集中,甚至制造出更可怕的武器。既然這兩種結(jié)果都是不可避免的,那么正確的問(wèn)題不是“將會(huì)發(fā)生什么”,而是“我們將選擇做什么”。因此,人類必須積極努力,以確保技術(shù)符合我們的價(jià)值觀。這需要政府、企業(yè)界、學(xué)術(shù)界、公眾個(gè)體都積極行動(dòng)起來(lái)。
美國(guó)圣母大學(xué)管理系教授詹姆斯·奧羅克(James O’Rourke)說(shuō):“自有歷史記載以來(lái),技術(shù)基本上都是一個(gè)中立概念,其價(jià)值總是取決于如何應(yīng)用。人工智能和其他先進(jìn)技術(shù)將被用于何種目的?從火藥、內(nèi)燃機(jī)引擎到核裂變,所有技術(shù)都被用作建設(shè)性或破壞性目的,因此答案完全取決于我們或者我們的子孫。”
美國(guó)華盛頓大學(xué)信息學(xué)院計(jì)算機(jī)科學(xué)教授巴蒂亞·弗里德曼(Batya Friedman)表示,在未來(lái),科技有可能逾越人類的道德底線。比如在自動(dòng)化戰(zhàn)爭(zhēng)中,遙控使用自動(dòng)化武器殺死敵人,會(huì)導(dǎo)致人 們?nèi)狈ω?zé)任感。因此,當(dāng)前至關(guān)緊要的問(wèn)題并不是人類想生活在什么樣的社會(huì),而是如何在未來(lái)社會(huì)體現(xiàn)我們的人性。
合理應(yīng)用人工智能
在報(bào)告中,受訪者除了表達(dá)對(duì)人工智能的擔(dān)憂,也提出了三種合理應(yīng)用人工智能的方案。
一是加強(qiáng)跨國(guó)界的、利益攸關(guān)方團(tuán)體的合作。推進(jìn)數(shù)字合作為人類帶來(lái)最佳效益是最應(yīng)優(yōu)先考慮的事項(xiàng),全世界必須達(dá)成共識(shí)來(lái)尋求解決方案。人們應(yīng)該聯(lián)合起來(lái),推動(dòng)那些被廣泛接受的創(chuàng)新,并讓復(fù)雜的數(shù)字網(wǎng)絡(luò)始終處于可控狀態(tài)。
二是制定政策幫助人類確保技術(shù)符合社會(huì)和道德責(zé)任,確保人工智能由人類掌控并造福人類。在這個(gè)過(guò)程中,引入一些新的法規(guī)和認(rèn)證程序十分必要。
三是改善經(jīng)濟(jì)和政治體制,以擴(kuò)展人類的能力,提升人類的境界,讓人類在與人工智能的競(jìng)爭(zhēng)中保持獨(dú)特優(yōu)勢(shì)。
究竟該如何面對(duì)人工智能,目前人類還處于摸索階段。正如美國(guó)弗吉尼亞理工大學(xué)IT安全實(shí)驗(yàn)室主任兼首席信息安全官蘭迪·馬辰尼(Randy Marchany)所言,到2030年,在與人類的互動(dòng)中,人工智能還將處在“嬰兒期”。人工智能需要像人類一樣去“上學(xué)”。雖然人工智能積累了各類海量數(shù)據(jù),但還需要通過(guò)“道德操守培訓(xùn)”才能做出好的決策,就像兒童需要學(xué)習(xí)各類道德準(zhǔn)則一樣。