精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

外媒稱人工智能武器將比核武更危險

責任編輯:zsheng |來源:企業網D1Net  2018-07-19 07:27:17 本文摘自:參考消息網

英國《明星日報》網站7月15日報道稱,從SIRI(蘋果公司在其產品上應用的一項智能語音控制功能)到自動駕駛汽車,人工智能正日益侵入我們的日常生活。

報道稱,這項技術還可能會啟動一場自主的武器軍備競賽,機器已經能夠在沒有人類干預的情況下自動選擇和打擊目標。

網絡安全專家羅曼·揚波利斯基博士披露了人類是如何通過追求這項技術將自己置于災難邊緣的。

他解釋說:“人工智能比核戰爭對人類構成了更大的危險。”

“核武器很危險,但是它們只是工具——一旦爆炸,就不再有另外的敵對關系。”

“然而,人工智能不僅是一種工具,而且是一種媒介——它處于一種持續的動態關系之中,而非是單一的危險局勢。”

這名路易斯維爾大學的博士說:“人工智能能夠在多個領域構成危險,而且可以動態地適應我們試圖消除危險所做的一切努力。”

報道稱,人們擔心,一旦主要軍事大國開始推進人工智能武器研發,一場全球性的自主軍備競賽將是不可避免的,這種技術軌道的終點是大規模生產的廉價的殺人機器。

報道稱,一個超級智能的人工智能機器不可能展現出愛或恨這樣的人類情感,人類也沒有理由預期人工智能機器會有意識的仁慈或心懷惡意。

揚波利斯基博士描述了人工智能會構成危險的兩種最有可能的情況:“機器想要獲得權力或是類似的東西這種情況不太可能發生——更有可能發生的情況是,黑客和恐怖分子惡意使用,或是有人明確控制機器來執行此類任務。”

他說:“一種尤其需要關注的情形是,軍方的人工智能機器遭到黑客攻擊。”

報道稱,另一個值得關注的問題是,人工智能原本被設定做某種好事,但是它為實現自己的目標開發出一種具有破壞性的執行手段。

例如,如果一個超級智能系統的任務是完成一項雄心勃勃的地球工程項目,其副作用可能是對生態系統造成嚴重破壞,甚至將人類試圖阻止其的行為視為一種需要解決的威脅。

盡管有人仍對完全自主的人工智能機器是否能夠真正實現持懷疑態度,揚波利斯基博士相信這將會實現,這也是越來越多科學家的共識。

他說:“這很可能會在我們的有生之年實現——大多數人的預測是2045年。”

斯蒂芬·霍金、埃隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨和許多其他科技大佬,最近都對人工智能構成的危險表示擔憂。

關鍵字:智能

本文摘自:參考消息網

x 外媒稱人工智能武器將比核武更危險 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

外媒稱人工智能武器將比核武更危險

責任編輯:zsheng |來源:企業網D1Net  2018-07-19 07:27:17 本文摘自:參考消息網

英國《明星日報》網站7月15日報道稱,從SIRI(蘋果公司在其產品上應用的一項智能語音控制功能)到自動駕駛汽車,人工智能正日益侵入我們的日常生活。

報道稱,這項技術還可能會啟動一場自主的武器軍備競賽,機器已經能夠在沒有人類干預的情況下自動選擇和打擊目標。

網絡安全專家羅曼·揚波利斯基博士披露了人類是如何通過追求這項技術將自己置于災難邊緣的。

他解釋說:“人工智能比核戰爭對人類構成了更大的危險。”

“核武器很危險,但是它們只是工具——一旦爆炸,就不再有另外的敵對關系。”

“然而,人工智能不僅是一種工具,而且是一種媒介——它處于一種持續的動態關系之中,而非是單一的危險局勢。”

這名路易斯維爾大學的博士說:“人工智能能夠在多個領域構成危險,而且可以動態地適應我們試圖消除危險所做的一切努力。”

報道稱,人們擔心,一旦主要軍事大國開始推進人工智能武器研發,一場全球性的自主軍備競賽將是不可避免的,這種技術軌道的終點是大規模生產的廉價的殺人機器。

報道稱,一個超級智能的人工智能機器不可能展現出愛或恨這樣的人類情感,人類也沒有理由預期人工智能機器會有意識的仁慈或心懷惡意。

揚波利斯基博士描述了人工智能會構成危險的兩種最有可能的情況:“機器想要獲得權力或是類似的東西這種情況不太可能發生——更有可能發生的情況是,黑客和恐怖分子惡意使用,或是有人明確控制機器來執行此類任務。”

他說:“一種尤其需要關注的情形是,軍方的人工智能機器遭到黑客攻擊。”

報道稱,另一個值得關注的問題是,人工智能原本被設定做某種好事,但是它為實現自己的目標開發出一種具有破壞性的執行手段。

例如,如果一個超級智能系統的任務是完成一項雄心勃勃的地球工程項目,其副作用可能是對生態系統造成嚴重破壞,甚至將人類試圖阻止其的行為視為一種需要解決的威脅。

盡管有人仍對完全自主的人工智能機器是否能夠真正實現持懷疑態度,揚波利斯基博士相信這將會實現,這也是越來越多科學家的共識。

他說:“這很可能會在我們的有生之年實現——大多數人的預測是2045年。”

斯蒂芬·霍金、埃隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨和許多其他科技大佬,最近都對人工智能構成的危險表示擔憂。

關鍵字:智能

本文摘自:參考消息網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 太仓市| 壤塘县| 资源县| 岢岚县| 阜康市| 荃湾区| 阿城市| 嘉峪关市| 衢州市| 佛山市| 石城县| 忻城县| 凌源市| 峨边| 横山县| 静安区| 嘉鱼县| 昌都县| 永吉县| 江安县| 深水埗区| 昌邑市| 潮州市| 南木林县| 闸北区| 潜山县| 辽阳市| 土默特左旗| 德庆县| 宁阳县| 富顺县| 都江堰市| 新津县| 蚌埠市| 伊春市| 嘉善县| 竹山县| 湛江市| 理塘县| 巩留县| 镇安县|