1.美國發布新版《國家人工智能研發戰略計劃》
美國特朗普政府于2019年6月21日對外發布了最新版本的《國家人工智能研發戰略計劃》。美國認為,由于工業界、學術界和非營利組織開展了大量的投資,人工智能研發領域正變得越來越復雜并呈現出飛速發展的趨勢,因此本次發布的最新版本在2016年奧巴馬政府版本的人工智能研發七大關注領域基礎上新增了第八個關注領域——公私合作伙伴關系。最新版本公布的美國在人工智能研發領域全部八個戰略重點分別為:對人工智能研究進行長期投資;為人工智能合作制定有效的方法;理解并解決人工智能的道德、法律和社會影響;確保人工智能系統的安全性;為人工智能培訓和測試研發能夠共享的公共數據集和環境;通過標準與基準來測量、評估人工智能技術;更好地了解國家人工智能研發人員的需求;擴大公私伙伴關系,加速人工智能的發展。
2.美國總統特朗普簽署“美國人工智能倡議”
美國國家科技政策辦公室發布了由總統特朗普親自簽署行政令的“美國人工智能倡議”。該倡議旨在從國家戰略層面重新分配資金,創造新資源以及設計國家重塑技術的方式,來促進美國的人工智能產業發展,讓其變得越來越全球化,并力爭位居世界領先水平。
據《麻省理工技術評論》網站報道,最新發布的這份倡議有五個核心要點:一是重新定向資金,該行政令指示聯邦資助機構優先考慮人工智能投資;二是創建資源,尋求為人工智能研究人員提供聯邦數據、計算機模型和計算資源;三是建立標準,它將指導美國國家標準與技術研究院(NIST)制定標準,以促進“可靠、強大、安全、可移植和可交互操作的人工智能系統”的發展;四是重新訓練工人,要求各機構優先考慮學徒、技能計劃和獎學金,為人工智能工作人員帶來的變化做好準備;五是國際化參與,呼吁制定國際合作戰略,確保人工智能的開發符合美國的“價值觀和利益”。
3.美國國防部發布人工智能戰略
美國國防部發布了人工智能戰略。國防部首席信息官DanaDeasy對媒體稱,“該行政命令對保持美國在人工智能領域的領導者地位至關重要,它不僅可以增加我們國家的繁榮,還可以增強我們的國家安全”。Deasy與美國防部聯合人工智能中心第一任主任空軍中將Jack Shanahan,與記者共同討論了該戰略的啟動。Deasy表示,國家國防戰略認識到美國的全球格局發展迅速,俄羅斯等國對軍隊現代化進行了大量投資,其中包括為發展人工智能技術投入的大量資金,他補充說,國防部人工智能戰略直接支持國家國防戰略的各個方面,正如人工智能戰略所述,美國及其盟國伙伴必須利用人工智能來維持其戰略地位,以期在未來戰場中獲勝并維護自由開放的國際秩序。
4.歐盟發布鼓勵人工智能倫理發展的指導方針
目前,歐盟委員會發布了建立可信賴的人工智能的指導方針。歐盟委員會表示,人工智能需遵守一些基本的倫理原則,例如尊重人類自主性、不做傷天害理的事、公正且負責任。除此之外,它還尤為重視保護諸如兒童與殘疾人等的弱勢群體。歐盟還表示,公民應徹底掌控自己的數據。
歐盟委員會認為,研發或部署人工智能前需參考評估表,不過該指導方針并不會成為一項政策或規章制度,亦不會對其造成干擾。相反,它們的架構較為寬松。2019年夏,歐盟委員會將與利益牽涉方進行合作,確定好需要附加指導的領域,并規劃好怎樣才能貫徹實行并核實這些建議。2020年年初,專家組將采納試驗階段中收集到的反饋。因歐盟研發出了諸如自主武器與假新聞生成算法這類有潛力的技術產品,越來越多的政府機構或將公開表明他們對人工智能倫理問題上的擔憂。
5.俄羅斯將制定人工智能國家戰略
俄羅斯將完成人工智能國家戰略的制定,以加強對人工智能等產業的投資和支持。根據總統網站發布的普京總統國情咨文中將要實施的任務清單顯示,俄政府必須制定出俄羅斯在人工智能領域的國家戰略,并推出補充措施,加速對人工智能、物聯網、機器人和大數據領域內的中小企業項目的投資和支持。
普京還要求,政府將在2019年年底前推出國家通信網絡和數據儲存處理基礎設施發展總體綱要;在2021年年底前將俄所有中小學納入高速互聯網網絡;在2022年1月1日前建成15個科學教育中心,其中位于彼爾姆邊疆區等地的五個科教中心要在今年年底前開始運行。
2018年3月,俄國防部聯合俄聯邦教育與科學部、俄羅斯科學院召開會議,邀請國內外人工智能專家對全球人工智能發展現狀進行研判,試圖舉全國學術、科技以及公司之力,制定“俄羅斯人工智能發展計劃”。之后,俄國防部牽頭發布了“人工智能十項計劃”,對未來俄羅斯人工智能的研究工作以及各部門、各機構的協調分工作出了指導性安排。
6.法國工業界致力于使用人工智能技術
根據法國政府的“人工智能促進人類發展戰略”,法國經濟和財政部與法國八家全球行業巨頭(法國液化空氣公司、達索航空公司、法國電力公司、雷諾公司、賽弗蘭公司、泰雷茲公司、道達爾公司和法雷奧公司)于2019年7月3日簽署了一份關于工業人工智能的宣言,八家全球公司在宣言中提出了人工智能的共同戰略愿景。簽署方同意從現在至2019年9月期間進行聯合審查,與政策制定者分享調查結果并在2019年年底前與法國人工智能生態系統協調制定行動計劃,鼓勵所有公共和私營利益攸關方參與分享人工智能的共同戰略愿景。
二、科研層面
1.美國DARPA推出新的人工智能項目
美國弗吉尼亞州阿靈頓——美國國防高級研究計劃局(DARPA)官員啟動了“人工智能科學和開放世界新奇學習”項目(SAIL-ON),該項目旨在研究和開發基本科學原理及通用工程技術和算法,以創建在面對開放世界所發生的新奇情況時能夠適當且有效地反應的人工智能系統。該項目的目標是制定科學原則,來量化和描述開放世界域的新奇程度,進而創建能夠對開放世界的新奇事物做出反應的人工智能系統,并在由美國國防部選定的領域內對這些系統進行演示和評估。
如果研究成功,SAIL-ON將教會一個人工智能系統如何學習并做出相應的反應,而不需要重新在一個大型的數據集上訓練。該項目旨在奠定相關技術基礎,使無論什么領域的機器都能自主進行軍事OODA循環過程,即觀察形勢、根據觀察內容進行調整、決策最佳行動方針、最終采取行動。
SAIL-ON將要求演示者和團隊描述和量化開放世界新奇事物的類型和程度,從而構建一個能夠生成選定領域內不同程度新奇情況的軟件,并開發能夠對多個開放世界的新奇事物進行識別和響應的算法和系統。SAIL-ON尋求人工智能多個子領域的專業知識,包括機器學習、計劃識別、知識表征、異常檢測、故障診斷和恢復、概率編程等。
2.美國DARPA舉辦人工智能學術論壇商討人工智能倫理問題
據《信號》雜志報道,美國DARPA官員在弗吉尼亞州亞歷山大市舉辦的人工智能學術論壇上針對倫理與法律問題開展小組討論主要涉及倫理、偏見、隱私等問題。據DARPA信息創新辦公室副主任Everett透露,“我們正在研究人工智能技術的倫理、法律和社會影響,特別是當它們在某種程度上變得強大和民主化時”。
Everett指出,人們可以通過筆記本電腦、互聯網連接亦或是云計算來接觸人工智能。因此,我們需要考慮這些技術的廣泛影響。他補充說,對軍隊來說,自主武器是持續關注的問題,實際上還有其他問題可能會變得越來越重要,如果看到一個自主坦克從平原開向營地,在某種意義上它是由人還是計算機驅動的重要嗎?它的確是自主的,要么由一臺計算機運行,要么由一臺生物計算機——人來運行。國防部的政策要求在任何致命行動中必須有人在回路中,但俄羅斯等對手正在探索完全自主的武器系統,這種系統可能比人類操作系統更快、更致命。“這就導致了一個倫理問題,即兵力保護。我們如何確保我們的兵力,特別是如果對手可能不關心附帶損害?他們對自主系統的態度更為激進,因此我們需要了解是否有可能提供足夠的兵力保護。”Everett說。
另一個問題是由人類構建和編程的系統將表現出人類的偏見。在他們由許多不同的機器學習系統組成的系統中會出現更微妙的倫理問題,結果雖然并不是災難性的錯誤,但它們是有偏見的,而且它們在系統性地偏見,Everett提出,他們的偏見使他們對一群人產生了微妙的影響。如果我們不了解測試偏見的方法,檢測、證明它的存在,并予以糾正,可能會產生巨大的社會影響。此外,惡意黑客可以使用支持人工智能的假體和植入式醫療設備。前副總統Dick Cheney在2013年透露,他的心臟植入物的無線功能必須被禁用,因為恐懼恐怖分子可能會入侵它。人工智能將在培訓這些系統方面發揮越來越大的作用,布朗寧解釋道,“人工智能中可能存在漏洞、攻擊面,所以我們必須關心網絡安全問題。”
3.美國IARPA尋求將人工智能技術用于城市監視
目前,美國情報界研究機構正尋求通過訓練機器學習算法來跟蹤城市監視網絡視頻中的人群。美國情報高級研究計劃局(IARPA)已發布了廣泛機構公告,希望招募技術團隊來構建更大、更好的數據集以訓練計算機視覺算法,目的是對城市環境中的人群進行監視。經過大量的數據訓練,計算機視覺算法可將安保攝像機網絡拍攝的視頻內容進行合成,以更好地跟蹤和識別潛在目標。
計算機視覺算法是一種人工智能算法,它可使計算機理解圖像和視頻。該算法曾在2013年被用于調查波士頓馬拉松爆炸案的犯罪嫌疑人,自此之后便開始廣泛應用。許多法律執行機構和公共安全組織已經使用計算機視覺算法來調查犯罪活動、監視關鍵基礎設施和保障大型活動,以防恐怖分子攻擊。
IARPA稱,目前可用于訓練這些算法的數據相對較少,這限制了計算機視覺算法對現實世界各種態勢的識別能力。IARPA尋求利用新型數據集來改進訓練過程,并讓計算機視覺系統能夠連接城市環境攝像頭網絡拍攝的視頻畫面。未來,用于多攝像頭視頻網絡的計算機視覺算法可支持案件后的犯罪現場重建、關鍵基礎設施和運輸設施保護、軍隊保護和國家特種安全活動。
4.美國IARPA加大對人工智能系統保護的研究力度
為了防止由于人工智能系統訓練數據遭到惡意篡改而對用戶造成傷害的情況發生,美國IARPA正在著手開展兩個項目,第一個項目是最早于2018年12月公布的“人工智能特洛伊木馬(TrojAL)”項目,該項目的目的是創建一個告警系統,在用于機器學習的訓練數據遭到對手惡意篡改時發出警報。自從公布該項目之后,IAEPA收到了一些私營部門的反饋、評論和修改意見。針對人工智能的特洛伊木馬攻擊包括針對人工智能訓練過程的攻擊,如篡改用于人工智能系統訓練的數據集。用于諸如人臉識別或語音識別的人工智能系統如果使用被篡改的訓練數據進行訓練,就會錯誤地識別物體或個人,而由于很多人工智能工具使用的是開源軟件,這又使得特洛伊木馬很難被察覺。IARPA官員表示,對“眾包”數據集進行清洗或監控很難實現,數據和訓練管道的安全性很脆弱,或根本不存在。而“TrojAL”項目的參與方將構建一個系統,監測對用戶圖像進行分類的人工智能工具中是否存在特洛伊木馬程序,該系統必須能夠在不需要人類干預的情況下每天大約掃描1000個系統。該系統將適用于人工智能的各個階段,并在24個月內逐漸提高其準確度等級。
IARPA還計劃于2019年晚些時候公布另一個項目,IARPA主管史塔西·迪克松表示,第二個項目主要針對的是個人照片被用來進行人臉識別算法訓練的那些人,項目的目的是對這些人的個人身份進行保護。史塔西·迪克松表示,沒有人能夠確保訓練出來的人臉識別算法不會被人惡意使用,從而通過逆向過程創造出數據庫中存在的人臉數據,目前針對該領域的研究還遠遠不夠,這也是開展該項目的原因。預計這兩個項目將持續大約兩年時間。除了以上兩個項目,IARPA還致力于開發基于公開信息的網絡攻擊預報系統。迪克松表示,過去美國政府是一系列研究項目的最大出資方,今后這種情況將會發生改變,政府機構與院校以及私營部門利益相關方進行合作將變得越來越有必要。基于這個原因,IARPA正在對一些院校的研究者提供資助,以便在生物特征識別系統受到未知類型的攻擊時對其進行保護。
5.“腦聯網”研究旨在升級人類智能
用科技刷新大腦——未來這可能不再是一種口號,而是現實。將大腦與互聯網直接相連,提升人類智能甚至構建“全球超級大腦”,這種“腦聯網”研究當下受到越來越多關注。
硅谷知名企業家埃隆·馬斯克日前透露,他創建的腦機交互技術公司“神經連接”即將發布新消息。而近期在國際期刊《神經科學前沿》上發表新論文的研究人員也預測,未來幾十年內,“人腦/云接口”將有突破。腦機接口研究是“腦聯網”的一大基礎,半個世紀以來這一領域已有不少進展,成果主要體現在為殘障人士實現視覺、聽覺以及肌肉運動等方面的輔助功能。相關研究大多是通過將大腦以某種形式與外部設備連接,實現腦電波信號與相關指令信號間的轉換。這些應用看起來已足夠科幻,但讓大腦直接“聯網”顯然比“聯機”更加大膽。馬斯克曾表示,通過高帶寬數字接口將機器與人類大腦相接,以大腦思考的速度傳輸信息,將有助于升級人類智能。
而根據《神經科學前沿》上述論文作者之一小羅伯特·弗雷塔斯的說法,新試驗已經取得一定進展。據介紹,他們的想法是將納米機器人植入大腦,充當大腦和超級計算機之間的“聯絡員”,實現信息的“矩陣式”下載。研究人員在論文中說,這種腦機交互技術除了能夠幫助直接、即刻獲取人類積累的幾乎所有方面的知識,還有其他一些潛在應用,包括改善教育、智力、娛樂、旅行和其他互動體驗的能力。
研究人員也承認,要想將大腦提升到云計算的高級水平,必須先在技術和醫學領域取得一定進展。比如,要將大量納米粒子安全地植入大腦,先要對它們的生物相容性進行進一步研究,才能考慮將其用于人類發展。“隨著這些技術和其他有前景的(腦機接口)技術以越來越快的速度發展,‘思想互聯網’可能在世紀之交前成為現實。”論文第一作者努諾·馬丁斯表示。不過,相關研究面臨的困難也可想而知,在技術方面,這一領域涉及醫學、生物學、物理、電氣工程、機器學習、信號處理和模式識別等學科,需要在多方面取得突破;倫理方面,植入式腦機接口試驗也有阻力。