除了記錄完整的巴塞羅那宣言之外,本文還探討了其背后的基本原理,重點(diǎn)關(guān)注安全性,可靠性和道德問(wèn)題,并評(píng)估其主要建議的進(jìn)展情況。由Biocat和l'Obra Social la Caixa贊助,在ICREA,生物學(xué)研究所和人工智能研究所的支持下,B-Debate匯集歐洲頂級(jí)專家,討論應(yīng)對(duì)AI風(fēng)險(xiǎn)的戰(zhàn)略和好處。該活動(dòng)之所以獨(dú)特,是因?yàn)闅W洲開(kāi)發(fā)商和研究人員參與了以前由美國(guó)和英國(guó)社會(huì)科學(xué)家,法律專家和商業(yè)咨詢公司主導(dǎo)的話語(yǔ)。“巴塞羅那宣言”由大多數(shù)與會(huì)者簽署,可在網(wǎng)上簽名和討論。
“鑒于對(duì)人工智能的廣泛興趣以及開(kāi)發(fā)影響人們?nèi)粘I畹膽?yīng)用程序的渴望,研究和應(yīng)用程序開(kāi)發(fā)社區(qū)必須進(jìn)行公開(kāi)討論,以避免不切實(shí)際的期望,意外后果和導(dǎo)致負(fù)面影響的使用加拿大研究與高級(jí)研究機(jī)構(gòu)ICREA研究教授,巴塞羅那國(guó)際教育研究所(UPF / CSIC),Luc Steels博士,研究員Lucon Lopez de Mantaras博士,研究人員Luc Steels博士說(shuō)。西班牙國(guó)家研究委員會(huì)(CSIC)教授和InstitutodeInvestigaciónenInteligencia Artificial(IIIA)主任 - 巴塞羅那Bellaterra的CSIC組織了巴塞羅那活動(dòng)。
雖然大多數(shù)人工智能活動(dòng)都在美國(guó)和中國(guó),但歐盟委員會(huì)和各國(guó)政府最近采取的行動(dòng)表明,歐洲的研究和發(fā)展正在加速發(fā)展,而“宣言”的討論有助于形成這種增長(zhǎng)。一項(xiàng)有希望的發(fā)展是最近在歐洲H2020框架計(jì)劃中的分配,用于建立一個(gè)生態(tài)系統(tǒng)和平臺(tái),以促進(jìn)歐洲人工智能研究,正如“宣言”所要求的那樣。該文件再次呼吁歐洲資助機(jī)構(gòu)和公司以足以應(yīng)對(duì)挑戰(zhàn)的規(guī)模投資人工智能的發(fā)展,并以這種方式使所有歐洲地區(qū)和公民都能獲利。
B-Debate,巴塞羅那宣言和快速增長(zhǎng)的文獻(xiàn)正在引發(fā)一些持續(xù)引起共鳴的緊迫問(wèn)題:AI是否已準(zhǔn)備好進(jìn)行大規(guī)模部署?AI現(xiàn)在主要用于商業(yè)用途,但我們是否也可以將AI用于共同利益?我們應(yīng)該鼓勵(lì)哪些應(yīng)用?如何解決人工智能部署中的負(fù)面影響?AI最近的技術(shù)突破是什么?它們?nèi)绾斡绊憫?yīng)用程序?AI在社交媒體中應(yīng)該扮演什么角色?人工智能開(kāi)發(fā)和部署的最佳實(shí)踐是什么?
Steels和Lopez de Mantaras評(píng)論說(shuō):“雖然人們普遍預(yù)期人工智能的快速進(jìn)步會(huì)引起興奮,但對(duì)進(jìn)步的一些擔(dān)憂是必要且合理的。”“人工智能部署失控的普遍擔(dān)憂似乎有些牽強(qiáng),但已經(jīng)出現(xiàn)了意想不到的后果,需要緊急補(bǔ)救。例如,嵌入在網(wǎng)絡(luò)和社交媒體中的算法會(huì)影響誰(shuí)與誰(shuí)交談,如何選擇和呈現(xiàn)信息,以及事實(shí)/虛假如何在公共空間中傳播和??競(jìng)爭(zhēng)。人工智能應(yīng)該(并且可能)幫助支持共識(shí)的形成而不是破壞它。人工智能系統(tǒng)應(yīng)該清楚地表明它們是人為的而不是人類的。人類永遠(yuǎn)不應(yīng)該成為人工智能的目標(biāo)。“
Questions are also being explored about the reliability and accountability of AI systems based on deep learning involving rule-governed behavior (e.g. financial decision-making, human resource management, or law enforcement). Embedded biases can prevent qualified job seekers from passing screening or result in unjust parole decisions. Autonomous AI systems pose different concerns. Do we need to put limits on autonomous weapons? Who is responsible when something goes wrong with a self-driving car?
“作為設(shè)計(jì)過(guò)程的一部分,”巴塞羅那宣言已經(jīng)提出了一個(gè)主動(dòng)整合最佳實(shí)踐的治理框架。我們相信人工智能可以成為社會(huì)利益的力量,但是對(duì)于不適當(dāng),過(guò)早或惡意存在充分的危險(xiǎn)用于保證需要提高對(duì)人工授精局限性的認(rèn)識(shí),并采取集體行動(dòng),確保人工智能確實(shí)以安全,可靠和負(fù)責(zé)任的方式用于共同利益,“Steels和Lopez de Mantaras解釋說(shuō)。
雖然歐洲的人工智能環(huán)境正在通過(guò)所有這些討論和活動(dòng)迅速改變,但調(diào)查人員得出結(jié)論認(rèn)為,“宣言”中提出的問(wèn)題仍然具有高度相關(guān)性,并在若干優(yōu)先領(lǐng)域重申建議:
今天更需要澄清人工智能在討論法律和道德問(wèn)題時(shí)的意思。基于知識(shí)的AI(用計(jì)算術(shù)語(yǔ)模擬人類知識(shí))或數(shù)據(jù)導(dǎo)向?qū)W習(xí)(通常稱為機(jī)器學(xué)習(xí))之間缺乏區(qū)別。這兩種方法的法律和道德問(wèn)題和應(yīng)用是不同的,但AI的全部潛力只能通過(guò)它們的組合來(lái)實(shí)現(xiàn)。
應(yīng)該給AI系統(tǒng)多少自治的問(wèn)題是,對(duì)于許多應(yīng)用來(lái)說(shuō),例如武器技術(shù)或自動(dòng)駕駛汽車,是最重要的。一種方法是制定治理規(guī)則和法律框架,這既是開(kāi)發(fā)人員的指導(dǎo)方針,也是一種機(jī)制,通過(guò)這種機(jī)制,受技術(shù)負(fù)面影響的人可以尋求補(bǔ)救。
重點(diǎn)必須從更換人類工作者的機(jī)器轉(zhuǎn)向補(bǔ)充和利用人類執(zhí)行任務(wù)和做出更好的決策。關(guān)于自動(dòng)化的討論應(yīng)該關(guān)注工作性質(zhì)的變化,而不僅僅是工作的數(shù)量。
要在歐洲充分支持AI的開(kāi)發(fā)和部署,還有很長(zhǎng)的路要走。“宣言”有助于提高認(rèn)識(shí),并進(jìn)一步推動(dòng)了政府的舉措,但是直接影響歐洲人工智能部署,研究和教育的具體行動(dòng)和穩(wěn)定的資金分配仍然很少。