7月18日,“鋼鐵俠”埃隆·馬斯克、谷歌旗下人工智能企業(yè)DeepMind的創(chuàng)始人等多位科技界大佬在一場人工智能聯(lián)合會議上作出承諾,宣布“不參與、不支持開發(fā)、制造、交易或使用致命性自主武器”。簽署者一致認為,剝奪人類生命的決定不可能委托給一臺機器。
在這場會議舉行前,許多美國科技公司也因為向政府或軍方提供了人工智能技術(shù)支持而受到抨擊。這些案例包括谷歌幫助美國國防部分析無人機畫面、亞馬遜與執(zhí)法機構(gòu)分享人臉識別技術(shù)、微軟正在為移民和海關(guān)執(zhí)法局(ICE)提供服務(wù)等等。
點擊查看源網(wǎng)頁
美國國防部所在地五角大樓
會議主辦方生命未來研究所(Future of Life Institute)認為,這份協(xié)議意味著有關(guān)人工智能安全性的討論終于落到實處。研究所主席泰格馬克(Max Tegmark)在聲明中表示:
能夠自主決定殺人的人工智能武器就和生物武器一樣令人作嘔且不夠穩(wěn)定,當然要以同樣的方式處理掉。?
事實上,人工智能——或者所謂的自動化技術(shù)已經(jīng)和人類共存了很長時間。哈佛大學(xué)《人工智能與國家安全》研究報告的作者格里高利·艾倫近日在第七屆世界和平論壇上介紹說,最早的飛機自動駕駛技術(shù)在1930年代就開發(fā)出來了。到目前為止,所謂的自動化已經(jīng)有了近100年的歷史。
同時,自動化從誕生起就被應(yīng)用到軍事行動中。最早正是美軍在二戰(zhàn)期間使用自動駕駛技術(shù)來完成調(diào)整試用,用于諾登投彈瞄準器——一種可以自動飛行并投擲炸彈的自動駕駛系統(tǒng)。
在當代社會,人工智能概念最顯著的更新是納入了機器學(xué)習(xí)因素。艾倫介紹說,之前的計算機自動化技術(shù)是由人類手工編程的邏輯指令,而人工智能可以根據(jù)機器學(xué)習(xí)的算法和訓(xùn)練數(shù)據(jù)自主編程。當先進的算法、海量的數(shù)據(jù)和先進的算力這三者結(jié)合起來,自動化系統(tǒng)便會威力倍增。
經(jīng)過幾十年的信息技術(shù)發(fā)展,第三次工業(yè)革命解決了連接的問題——包括人與信息的連接、人與商品的連接、人與人的連接。而人工智能的出現(xiàn)進一步解決了連接后的根本性問題。
科大訊飛高級副總裁江濤在世界和平論壇上舉例說,協(xié)和醫(yī)院最好的醫(yī)生可以很方便地跟世界各地的患者連接在一起。但這仍然沒有解決根本的看病問題,連接以后的處理還要靠人的大腦,即專家的知識和經(jīng)驗。?但人工智能的出現(xiàn)進一步幫助人類處理后續(xù)問題,比如人工智能系統(tǒng)去年已經(jīng)通過國家醫(yī)師資格考試,可以作出輔助診斷,提高醫(yī)生的勞動生產(chǎn)率。
點擊查看源網(wǎng)頁
2017年通過國家執(zhí)業(yè)醫(yī)師考試的“智醫(yī)助理”
如同電子技術(shù)一樣,人工智能技術(shù)具備跨行業(yè)的性質(zhì),在多個領(lǐng)域為人類生活作出極大的改善。另一方面,電子技術(shù)除了帶來電報和電話等發(fā)明,電引信也在戰(zhàn)爭中發(fā)揮了重要作用。類似地,對于人工智能來說,其本身正暴露出巨大的安全隱患,也并非所有應(yīng)用都在道德上為人所接受。
從其本身來看,360集團副總裁賀勁松指出,人工智能所依賴的各類傳感器、訓(xùn)練數(shù)據(jù)、深度學(xué)習(xí)模型和軟件,都存在著一定的安全隱患。給它一組數(shù)據(jù),它就可以引發(fā)安全問題,比如安全研究人員在試驗環(huán)境下干擾特斯拉的無線感應(yīng)器,使得特斯拉直接撞上了前方50厘米的障礙物;利用被污染過的圖片就能輕易地就讓人工智能學(xué)習(xí)系統(tǒng)把一條狗識別成一只豬等等。
作為一個全新的安全博弈舞臺,人工智能在給生活帶來便捷的同時,也給國際安全帶來了新的威脅,賀勁松舉例說,人工智能極大地增強了網(wǎng)絡(luò)情報的分析收集能力,使網(wǎng)絡(luò)間諜活動更加精準有效,同時降低了網(wǎng)絡(luò)武器的制作成本。目前,人工智能還能用于網(wǎng)絡(luò)的惡意刪帖、刷帖,合成虛假的音視頻,影響人類正常的生活秩序。
人工智能初創(chuàng)公司地平線創(chuàng)始人余凱警告稱:
算法可以控制人的思想,這是前所未有的事情。我們本來應(yīng)當是宇宙當中的超級力量,我們可以控制其他的東西,而不會說被機器控制。而現(xiàn)在算法就已經(jīng)在操縱,甚至是洗腦我們?nèi)祟?hellip;…根本的威脅在于,算法會自行來決策。它們?nèi)绱酥斆魑覀冊趺纯刂扑麄兡?
但另一方面,倘若要從技術(shù)層面思考規(guī)避風險的措施,首先還要認識到人工智能技術(shù)的局限性。
余凱也進一步澄清說,人工智能還處在非常早期的階段,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)也極為初步:
?(人工智能)跟嬰兒相比都是很蠢的。比如我的兒子在一歲的時候就很容易地分辨出米老鼠和其他不同的動物。但如果想要訓(xùn)練神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)貓的類別,可能就需要很多萬個數(shù)據(jù)去訓(xùn)練系統(tǒng)。
科大訊飛高級副總裁江濤也表示:
它會計算,但不會算計,它沒有全局觀、沒有世界觀、沒有自主意識,在當前的演進路線上,我們還是看不到未來機器具備自主意識的這種可能性,除非將來對于腦科學(xué)和神經(jīng)科學(xué)上取得重大突破之后(才能實現(xiàn)),但是什么時候能做到,現(xiàn)在根本沒有人能預(yù)測。
賀勁松認為,安全應(yīng)該貫穿到人工智能發(fā)展的全鏈條、全流程,鼓勵推出人工智能安全的公共服務(wù)平臺,開展人工智能的惡意濫用與體系對抗的評估研究,并加強人工智能海量數(shù)據(jù)的安全防護,防止用戶隱私的信息泄露。
現(xiàn)在的人工智能系統(tǒng)越來越多地使用了用戶的指紋、聲紋、面部特征甚至行蹤軌跡等個人信息開展學(xué)習(xí)和訓(xùn)練,人工智能越來越聰明,就使我們的個人信息如同“裸奔”。而人工智能的發(fā)展不能以犧牲用戶的隱私權(quán)為代價,它的收集要實現(xiàn)知情,選擇權(quán)在用戶,使用則嚴格受到保護,這應(yīng)該是人工智能時代隱私安全的重要的基本原則。
針對能否識別網(wǎng)絡(luò)攻擊來源的問題,賀勁松認為,區(qū)分黑客攻擊和國家攻擊是有可能的,因為有組織的或者有預(yù)謀的攻擊更多的是持續(xù)的攻擊,而黑客的攻擊很多是偶然性、偶發(fā)性的,通過溯源基本可以分清是組織攻擊還是國家攻擊。
艾倫也指出,類似的追溯能力在過去五年得到了很大的提高。不過人工智能在監(jiān)管方面確實比其他技術(shù)更困難。制定國際規(guī)則時要考慮技術(shù)、成本、監(jiān)測的難度和手段,以及商業(yè)和軍用技術(shù)之間的異同。例如昂貴的技術(shù)只有國家或者非常高素質(zhì)的人才能用,那么就比較容易分辨,但人工智能人才都在企業(yè),標準化產(chǎn)品用起來也便宜,所以規(guī)制人工智能,尤其是在戰(zhàn)爭中的使用,從技術(shù)角度來說可以實現(xiàn),但挑戰(zhàn)重重。
因此,艾倫認為,人們要汲取之前技術(shù)革命的經(jīng)驗教訓(xùn),在發(fā)展人工智能的同時更好地實現(xiàn)世界和平。比如冷戰(zhàn)時期的衛(wèi)生偵查就是一個正面實例。《禁止生物武器公約》也是如此——既要發(fā)展,同時又能夠緩解生物技術(shù)的威脅,這便是國際社會對于人工智能發(fā)展可以汲取的先例。
而清華大學(xué)計算機教授張鈸的觀點是,人工智能安全問題存在過度政治化。
實際上在人工智能安全問題上有很多人類共同的利益。當前最大的安全問題就是人工智能系統(tǒng)非常脆弱,而且攻擊的代價很低,防守起來很困難……全世界都要團結(jié)起來共同來解決這個問題,因為這個問題不解決,對任何一個國家都是不安全的……而不是想利用這個安全問題來攻擊哪個國家。
科大訊飛高級副總裁江濤還指出,當前的重點是讓大眾了解人工智能時代中人和機器的關(guān)系,讓普通大眾和政府都認識到人工智能和人類該如何協(xié)同,避免因為恐懼和不了解而導(dǎo)致過分的保守。
在江濤個人看來,歐盟在今年5月開始實行的《一般數(shù)據(jù)保護條例》(GDPR)就顯得過于保守,一定程度上阻礙了人工智能的發(fā)展。他表示:
未來人工智能時代的人機關(guān)系會是什么樣的?我覺得一定是人機協(xié)同的:人類有情感、有智慧、有激情;機器算得快,能夠快速統(tǒng)計、分析、計算。這些結(jié)合起來就能為人類帶來巨大的進步。未來的人工智能時代,比人類更強大的不是人工智能,而是掌握人工智能的人類。