現實情況是,任何新的人工智能創新都可能被用于有益或有害的目的:任何可能提供重要經濟應用的單一算法,也可能導致空前的大規模毀滅性武器生產,而這是難以捉摸的。其結果是,人們對基于人工智能自動化的擔憂正在加劇。
隨著機器學習、計算能力、無邊界投資和數據可用性的進步,人工智能在廣闊領域有著潛在的應用價值,這一事實使其所涉及的安全風險成倍增加。此外,由于人工智能的整合對人來說是無法直接預知的,所以對任何事物的認知能力都從根本上改變了安全格局。人工智能的自動化和智能帶來了希望,也帶來了毀滅的可能性。
計算能力的大眾化
計算機技術的發展使技術發展、知識、信息和智能民主化。數據分析和處理技術的快速發展,將網絡、電子、量子和自主武器與核、生物和納米等技術結合于武器制造,這能夠對人類造成災難性的傷害。
聯網的計算機、網絡和網絡空間已經成為整個NGIOA所有數字過程中不可或缺的一部分。由于計算機代碼和聯網計算機已經將網絡空間與地理空間和太空連接起來,現在幾乎一切都被聯網并可控。
由于人工智能有可能被整合到網絡空間、地理空間和太空(CGS)的幾乎每一種產品和服務中并使其智能化,這種不斷演變的認知能力從根本上改變了人類的安全環境。目前,技術、計算能力、編程語言、計算機代碼、加密、信息、大數據、算法、投資等,它們都有軍民雙重用途。
當每個人都可以訪問數字數據,擁有必要的機器學習技術和計算能力就能為己創建人工智能時,復雜的安全挑戰隨即產生,管理則變得困難重重。這不僅意味著增長中的潛在大規模殺傷性武器數量,攻擊面范圍的擴大也不容忽略。人工智能的雙重使用威脅所帶來的安全風險正變得越來越可怕。這就引出了一個重要的問題:人類的生存、安全和可持續性是否應該留給個人的智慧,誰能或不知道人工智能的潛在雙重用途?也許現在是開發人工智能框架的時候了。
數據的大眾化
隨著網絡空間的數據成為有爭議的公有物,大數據的大眾化帶來了一個全新的世界秩序。這個新的世界秩序給我們帶來了一個新的現實——任何地方的任何人都可以訪問數字數據,并將其用于人類的善或惡。今天,任何個人或實體,只要有意愿,知道如何獲取大數據和數據科學能力,就可以利用它來實現他們想要實現的任何智能、自動化、監視和偵察,無論他們具備何種教育背景、背景、社會地位或意圖。
雖然大數據的大眾化帶來了普遍的可訪問性,并使跨NGIOA的個人和實體獲得了授權,但它也給我們帶來了許多重要的安全風險。任何有或沒有受過正規訓練的人,都有可能無意中甚至有意地造成社區、種族、宗教、國家和人類的混亂、災難以及存在的風險。
既然數據是構建大多數人工智能系統所必需的,那么數據的大眾化是否會不受約束,而不承擔任何責任和責任呢?
人工智能
人工智能、機器人技術、無人機等領域的最新發展,對人類的益處有著巨大的潛力,但同樣的進步也帶來了巨大的風險:未經檢查的情報、監視、偵察,以及帶有偏見或致命的算法,沒有人為此做好了相應的準備。
復雜安全風險產生于:這些帶有偏見和致命因素的算法是混合的,因為參與開發或部署人工智能的決策者通常不會關注諸如“安全”之類的基本問題。因此,建立一種可持續的“人工智能安全”文化,不僅需要讓人工智能研究人員、投資者、用戶、監管者和決策者意識到人工智能開發的雙重用途(不管算法的性質如何),而且還教育那些參與其中的人。
正如今天的各國所看到的:
任何人都可以創建具有雙重用途的算法
任何人都可以購買必要的數據、工具和技術來創建算法
遠程開發人員可以為任何人開發算法
算法可以單獨購買,并可用于任何目的
自動無人駕駛飛行器正在崛起
自主武器系統成為了現實
擁有自主權的人工智能系統成為一個現實
自主面部識別成為現實
人工智能算法容易受到威脅和控制
這就提出了一個根本性的問題:任何人、任何來自不同國家的個人或實體,如何能夠訪問必要的數字數據、探索為任何目的和議程創造人工智能的基礎科學,而不承擔任何責任、監督和后果?
這種人工智能的發展需要在必要的時候進行管理和預防。
今天的人工智能發展和前景在許多方面都帶來了不確定性。因為人工智能是一種軟件,它不僅建立在軍隊使用的武器系統上,而且在NGIOA的每一個智能應用程序中都有,每個人工智能應用的潛力都有雙重用途,這是一個不容忽視的現實。
安全困境
在人類歷史的大部分時間里,安全的概念和方法主要圍繞著使用武力和地理空間的領土完整。由于安全的定義和意義在人工智能世界中受到了根本性的挑戰和改變,傳統的安全是指在地理空間內或跨越地理邊界對各自國家的侵犯,現在這種概念已經過時了,需要對其進行評估和更新。
全新的人工智能世界的出現,或多或少有點像一個陌生的領域,在這個領域里,幾乎沒有人知道,而且大多是未知的。這引發了恐懼、不確定性、競爭和軍備競賽,并帶領我們走向一個沒有邊界的新戰場,這可能也可能不涉及人類,這也可能很難被理解和控制。
不斷發展的人工智能威脅以及安全挑戰的復雜性跨越了空間、意識形態和政治,這就要求各國的所有利益攸關方進行建設性合作。集體的頭腦風暴是必要的,對威脅的事物進行客觀的評估,以及確保其安全。在認識到這一現實的情況下,風險集團(Risk Group)發起了對雙重使用技術困境(Dual Use Technology Dilemma)的討論。
雖然關于人工智能的結構、角色和雙重用途的爭論將在未來幾年繼續,但任何試圖重新定義人工智能安全的嘗試都需要從識別、理解、合并和擴展人工智能安全威脅的定義和性質開始。盡管本文的重點是人工智能,但許多其他技術需要對其雙重使用潛力進行評估。現在是開始討論新興技術的雙重用途的時候了。