人工智能會失去控制嗎?
在使用它們時防止可能的風險一直是人類馴服“技術”猛獸的一貫戰略。因此,我們擁有非常復雜的電力保護系統,詳細的交通規則和無數的交通安全設備,并且還產生了巨大的互聯網安全行業。
事實上,由于存在觸電危險,我們不會決定關閉整個城市。相反,我們將其限制在一個安全層,讓技術安全地為人類服務。今天這種情況正在人工智能面前出現。就像人類第一次面對火焰時的恐慌一樣,一百多年的科幻文化讓人們在面對人工智能時首先想到的是對機器人統治地球的恐懼。事實上,我認為這種可能性就像一顆撞擊地球的行星,它是一種假設,它可以發生,但沒有人知道它會在什么時候發生。
然而,隨著人工智能的迅速發展和廣泛應用,這種新技術的危險性和不確定性逐漸顯現。人工智能的“絕緣膠帶”和“空氣開關”在哪里?不久前,DeepMind在博客中透露了這樣一條消息,即AI模型可能會出現混亂和失控。他們正在準備開發一種“AI保險機制”,可以在緊急情況下完全關閉AI。也就是說,一旦發現AI的惡意傾向,系統將主動終止AI的所有活動。
當然,這一領域的研究更多的是定向探索,隨后的一系列問題值得我們考慮。如果有像AI保險絲開關這樣的設備,在什么情況下會停止AI工作?有沒有其他方法可以確保AI的安全性?
需要防范哪些人工智能風險?
就像人類使用火一樣,它可能是人類歷史上最具破壞性的技術應用,但至少沒有人會刻意責怪“火的邪惡”或“普羅米修斯的原罪”。但AI與火有點不同。深度神經網絡的復雜性導致AI運行邏輯在某些情況下無法解釋或不可預測,這是廣泛關注的AI黑盒問題。AI讓人感到神秘和可怕,那么AI在應用程序中的危險是什么?
偏見
人工智能已被證明能夠學習粗魯和種族歧視,這是之前關于職業和種族主義遭遇AI偏見的文章。例如,在2016年3月,微軟推出了名為Tay的聊天機器人,但在推出后不到一天,Tay從一個可愛的19歲“女孩”變成了一個糟糕的語言和種族主義言論“AI madman”,所以微軟急切地刪除了這個產品。這種現象的根本原因是人工智能將學習和吸收社交網絡上的對話數據。然而,數據本身包含一些偏見和歧視的語言,因此AI學習壞事并將它們組合到行為模式中。我們怎樣才能讓AI只學習我們認為好的東西?目前似乎沒有這個問題的好答案。
欺詐和破壞
人們不僅可以向人工智能教導壞事,還可以直接使用人工智能做惡,這種情況并不少見。2015年,英國已經發現使用AI模型來模仿用戶語氣來進行郵件和電信欺詐。此外,許多黑客已經證明了使用AI來竊取密碼和破解安全性的能力。在許多國家(包括我國),不法分子開始使用人工智能技術偽造電子商務賬戶和交易訂單,從而欺騙投資者繼續投資。
超越認知
作為一種計算機算法,它的認知不是基于人類的常識,但很多時候,普通人和研究人員都會忽略這一點。著名的案例是DeepMind在劃船游戲中訓練AI,并發現深度學習模型最終得出的結論是,不是普通人類玩家可能選擇的路線。這種情況非常有必要引起所有人的注意,假設在無人駕駛場景中,AI開始不按照人類交通規則思考,它可能直接從高架橋飛到地面或選擇逆行以獲得更好的效率。這不是危言聳聽。目前的研究發現,只要對道路標志造成一點損害,就會對計算機視覺造成很大的干擾。畢竟,機器看到錯誤標志的想法并不像人類那樣“思考”。
我們可以做些什么來限制AI?
失去對AI本身的控制可能與人類歷史上任何其他技術的風險不同。人工智能已經學到了很多數據和復雜的內部變換,因此人類面臨的困難是沒有像電一樣的簡單安全法,它會帶來難以捉摸的隱患。那么我們如何對AI進行一些限制呢?你可以看到業內有幾個想法。應該指出的是,這不是一個可以導致單一結論的討論。在我看來,當實際對AI進行一些限制時,需要一個全面的解決方案來協同工作。
劊子手理論
該主題可以追溯到我們在開始時提到的DeepMind。他們正在開發的人工智能安全技術,可以理解為復雜的人工智能任務背后,有一個“AI執行者”隨叫隨到。其原理是重新開發具有強大功能和一套自身安全邏輯的AI系統,并根據強化學習機制隨時監控其他AI模型的工作。一旦發現其他AI有風險,AI程序的活動將立即被執行者終止。
事實上,“可中斷”的概念一直是DeepMind在AI安全領域的核心概念。2017年12月,他們發布了一份名為“安全可中斷智能代理”的研究報告,展示了如何確保智能代理的性能在中斷后重新啟動時不會受到影響。讓AI監控AI在技術上是可行的,但也會引起一些問題。例如,面對日益復雜的深度神經網絡,問題可追溯性模型可能消耗難以承受的勞動力成本。另外,誰可以監控這個“AI劊子手”?
原告理論
無論是歧視還是超越認知的行為,它都可以歸因于深度學習的黑匣子特征。那么有沒有辦法透視黑匣子并讓人類開發人員找到問題AI的錯誤點,以便糾正它而不是魯莽地打斷它?我認為使黑匣子安全可控是AI安全領域的主要方向。
目前有兩種主要方式來解釋黑匣子。
● 一種是使用AI來檢查和跟蹤AI。例如,我們可以使用注意機制,專門設計神經網絡模型來復制和跟蹤其他AI模型的軌跡,從而找出錯誤訓練結果的訓練源,并幫助開發人員進行糾正。
● 另一種是通過一些工具使深度學習模型的結構可見,這意味著黑盒子變得透明。這樣,當AI失敗時,研發人員可以相對容易地檢查每一層的培訓過程并找到問題。
然而,無論是AI檢察官還是人類檢察官,今天這些黑匣子解釋技術通常只涉及不那么復雜的深度學習模型。同時,這些計劃一般需要大量人員參與其中。更麻煩的是,它消耗的人力也必須具有相當高的技術水平。
倫理學家
從許多方面來說,阻止人工智能做惡不僅僅是今天的技術問題。例如,培訓數據是否有偏差在很大程度上取決于數據提供者本身是否有偏見。同樣,許多人工智能歧視問題是由開發人員提高業務效率的愿望引起的,這也是一個道德問題。此外,是否有可能限制開發人工智能武器和人工智能監測工具的愿望將是一個社會和國際責任問題。
為了防止這些問題的擴散,不應僅從技術角度對AI進行限制,而應引入廣泛的社會機制。今年早些時候,OpenAI,牛津大學和劍橋大學等14個組織和大學發表了題為“人工智能惡意使用”的研究報告。該報告指出,我們應該承認今天人工智能的研究成果是雙重的。刃劍和為了控制人工智能帶來的風險。政策制定者應與技術人員密切合作,調查,預防和減輕可能的惡意使用人工智能的方式。在人工智能領域,應優先考慮規范和道德框架,可以看出,將AI限制在技術,法律,道德和研究習慣領域已成為國際社會的共識。顯然,這很容易看到,但可能很難做到。
無論用哪種方案來限制人工智能,最終都要面對一個哲學問題:人性的本質是矛盾的,但我們必須運用統一的原則來要求模仿人類的人工智能。
誰會支持限制人工智能的計劃?
當人工智能需要越來越多的人類社會培訓數據時,人類價值判斷也將傳遞給人工智能,包括人類社會中的一些道德障礙。
為了防止人工智能做惡,我們首先要確定善惡之間的界限。這個邊界絕對正確嗎?負責界定邊界的人是否能夠滿足不做惡的要求?我們都知道Google AI曾將黑人視為猩猩,這顯然是一種歧視形式。
此外,AI的國家間限制規則是否一致?今天,越來越多的人工智能公司和國際工業組織,甚至政府組織開始關注人工智能的道德和倫理問題,并制定國際統一的人工智能道德規范。但統一的AI法規是否會違反某些國家的風俗習慣?它會阻礙一些國家和地區的人工智能研究嗎?例如,歐盟的AI研究隱私保護政策是否真的適合全世界?
這些人工智能道德方面幾乎是矛盾的問題。即使在較長遠的未來,人類行為判斷真的比AI更好嗎?在某些時候,使用技術來打斷不可預測的機器學習行為,它實際上揭示了人類的弱點或無知嗎?或者它是否已經停止了用技術創造技術的新可能性?
問題和解決方案總是在交替狀態下前進。
假設人類有一個限制AI的系統。是否應該用它來阻止AI喚醒自主思維的那一刻?但是,這個時刻是什么時候?判斷這一時刻的那個系統是否符合我們禁令的條件?