對于一個今年可能產生超過1萬億美元商業價值,到2022年可能產生近4萬億美元商業價值的行業來說,任何對其道德意義的重大懷疑都可能產生重大后果。
人工智能是一個流行語,經常在商業世界和媒體中流傳,但它已經對許多行業產生了實際影響——尤其是那些依賴大量體力勞動的行業。
隨著人工智能越來越接近成熟,企業繼續加大對它的投資,有人擔心這項技術對更廣泛的社會和道德影響沒有得到足夠的重視。近日外媒CNBC采訪了一些專家,看看他們認為人工智能的五種最可怕的未來情景。
01大規模失業
分析師乃至工人普遍擔心,隨著工作越來越自動化,不再需要人工勞動,人工智能可能會導致全球大規模失業。愛丁堡大學信息學學院教授Alan Bundy說:“失業可能是最大的擔憂。”
據Bundy稱,失業是世界各地民粹主義興起的主要原因——他以唐納德·特朗普總統的當選和英國退出歐盟的決定為例。他補充道:“人類將聚焦一些窄領域的應用程序,處理一些邊緣情況,但這不會取代預期的大規模失業。”
人工智能的支持者說,這項技術將導致創造新的就業機會。對工程師的需求將會增加,因為新技術的復雜性需要合適的人才來開發它。倡導者說,為了在日常工作中發揮新的功能,人類還必須使用人工智能。
研究公司Gartner預測,到2020年,人工智能將創造230萬個工作崗位,減少180萬個工作崗位,凈增加50萬個工作崗位。這并不排除這樣一個事實,即AI會導致全球范圍內的大規模裁員。
牛津大學2013年經常引用的一項研究指出,一些最可替代的工作包括經紀文員、銀行出納員、保險承保人和稅務編制員,這些工作雖然技能不高,但卻是維持金融業運轉的關鍵職業。
盡管有可能通過提高失業率和創造新的工作機會,甚至引入普遍的基本收入,將人工智能對勞動力市場的損害降到最低,但失業問題顯然不會很快消失。
02戰爭
所謂的“殺手機器人”的出現以及人工智能在軍事應用中的其他用途讓專家擔心這項技術最終會導致戰爭。特斯拉首席執行官埃隆·馬斯克以直言不諱的人工智能觀點著稱,他去年警告說,這項技術可能會導致第三次世界大戰。
盡管馬斯克以夸張著稱,但他的評論讓專家們真正感到恐懼。一些分析人士和活動家認為,致命自主武器的發展和人工智能在軍事決策中的使用造成了許多倫理困境,并開啟了人工智能增強——或人工智能主導——戰爭的可能性。甚至有一群NGOs (非政府組織)致力于禁止這種機器。2013年發起的阻止殺手機器人的運動呼吁各國政府阻止人工智能無人機的發展。
阿姆斯特丹自由大學的人工智能研究員Frank van Harmelen說,盡管他不認為用“恐怖”這個詞來形容人工智能是完全準確的,但是使用這些武器應該會嚇到任何人。“我真正認為‘恐怖’一詞適用的唯一領域是自主武器系統...可能看起來像機器人也可能不像機器人的系統。“Harmelen說,“任何自動決定生死的計算機系統(例如,通過發射導彈),不管人工智能與否,都是一個非常可怕的想法。"
今年早些時候,美國國防智囊團Rand Corporation在一項研究中警告說,在軍事應用中使用人工智能可能會在2040年引發核戰爭。這一大膽預測背后的想法是,軍事人工智能系統在分析局勢時出錯的可能性可能會導致各國做出輕率的、潛在的災難性決定。
這些擔憂源于1983年的一次臭名昭著的事件,當時前蘇聯軍官Stanislav Petrov認為俄羅斯計算機錯誤地發出警告:稱美國發射了核導彈,避免了核戰爭。
03機器人醫生
雖然專家們大多同意人工智能將為醫療從業者帶來的好處——例如早期診斷疾病和加快整體醫療保健體驗——但一些醫生和學者擔心,我們可能會朝著數據驅動醫療實踐的方向走得太快。
學術界的一個擔憂是,人們對人工智能期望過高,認為它可以形成人類擁有的解決各種任務的一般智能。愛丁堡大學的Bundy說:“迄今為止,所有成功的人工智能應用都非常成功,但應用范圍非常狹窄。”據Bundy稱,這些預期可能會給醫療保健這樣的行業帶來可怕的后果。他說:“一個對心臟問題非常擅長的醫學診斷應用程序,可能會診斷出患有某種罕見心臟問題的癌癥患者,結果可能會致命。”
就在上周,健康焦點出版物Stat的一份報告引用了IBM的內部文件,顯示這家科技巨頭的沃森超級計算機提出了多項“不安全和不正確”的癌癥治療建議。根據這篇文章,該軟件只被訓練來處理少數病例和假設情景,而不是實際的患者數據。
IBM的一名發言人告訴CNBC :“我們三年前創建了沃森健康中心,為人工智能帶來了醫療保健領域的一些最大挑戰,我們對我們正在取得的進展感到高興。”“我們的腫瘤學和基因組學產品被全球230家醫院使用,并支持了84,000多名患者的護理,這幾乎是截至2017年底患者人數的兩倍。"
這位發言人補充道:“與此同時,我們從客戶的持續反饋、新的科學證據以及新的癌癥和治療替代方案中了解并改善了沃森的健康狀況。這包括去年發布的11款功能更好的軟件,包括針對從結腸癌到肝癌等癌癥的國家指南。"
另一個令人擔憂的問題是,大量的數據被計算機吞噬和分享——以及通過使用這些數據來自動化應用程序的數據驅動算法——可能會對患者的隱私產生倫理影響。大數據的出現,現在已經是一個數十億美元的產業,涵蓋了從貿易到酒店的所有領域,這意味著機器可以收集的個人信息數量已經膨脹到一個不可思議的規模。
這一現象被吹捧為對各種疾病的摸底、預測某人患重病的可能性以及提前檢查治療的突破。但是,對于存儲了多少數據以及在哪里共享這些數據的擔憂證明是有問題的。
以“深度思維”為例。谷歌擁有的人工智能公司在2015年與英國國家衛生服務局簽署了一項協議,允許它訪問160萬英國患者的健康數據。該計劃意味著患者將他們的數據交給公司,以提高其項目檢測疾病的能力。它導致了一個名為Streams的應用程序的創建,旨在監測腎病患者,并在患者病情惡化時提醒臨床醫生。
但是去年,英國隱私監察機構信息專員辦公室裁定NHS和Deep Miind之間的合同“不符合數據保護法”。ICO表示,作為協議的一部分,倫敦皇家自由醫院與Deep Mind合作,對于患者數據的使用方式并不透明。
04大規模監視
專家還擔心人工智能可能被用于大規模監控。在中國,這種恐懼似乎正在成為現實。在中國的各個城市,面部識別技術和人工智能的結合正被用來幫助當局打擊犯罪。
根據本月早些時候發表的《紐約時報》報道,中國目前擁有大約2億臺監控攝像機。它也是世界上唯一一個推出“社會信用系統”的國家,該系統跟蹤公民的活動,用分數對他們進行排名,以確定他們是否可以禁止訪問從飛機航班到某些在線約會服務的所有內容。
中國正在爭取到2030年成為人工智能領域的全球領導者,希望將其人工智能行業的價值提升到1萬億元人民幣( 1466億美元)。中國正在向該部門投入大量資金,以幫助推動這一雄心壯志。
新南威爾士州大學人工智能教授Toby Walsh說,在他列出的人工智能引起的可怕后果中,監視是“重要的”。
05歧視
一些讀者可能還記得Tay,這是微軟兩年前制造的一款人工智能聊天機器人,引起了轟動。機器人獲得了Twitter賬號,用戶用了不到一天的時間就訓練它發布支持阿道夫·希特勒和白人至上的攻擊性推特。這里的問題是,聊天機器人被訓練成模擬用戶在線互動。因為互聯網某些角落經常是黑暗的,可以說冒犯性的推文并不奇怪。
這個錯誤迫使微軟撤銷了賬戶。盡管事實證明這一事件有點幽默,但它引發了關于人工智能可能會受到偏見的嚴肅辯論。Walsh說,歧視是這項技術帶來的一系列“意想不到的后果”之一。他說:“我們在算法上看到了意想不到的偏見,尤其是機器學習,這種偏見可能會引發種族、性別和其他偏見,我們花了50多年試圖從我們的社會中消除這些偏見。”
專家說,這個問題關系到讓人工智能成為一個客觀、理性的思考者,沒有偏向某一特定種族、性別或性別的可能性。這是研究人員和開發人員一直在認真思考的問題,研究諸如面部識別技術在辨別白人面孔方面比黑人面孔看起來更好的方式,以及語言處理人工智能系統如何表現出偏見,將某些性別和種族與定型角色聯系起來。
IBM甚至有研究人員致力于解決人工智能中的歧視問題,今年早些時候,IBM表示將發布兩個數據集,其中包含各種不同膚色和其他面部屬性的面部,以減少人工智能驅動的面部識別系統中的偏見。