精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:安全企業動態 → 正文

谷歌讓人工智能在“互毆”中學習,以對抗未來的超級網絡攻擊

責任編輯:editor007 |來源:企業網D1Net  2017-07-23 21:52:36 本文摘自:澎湃新聞

想要對抗惡意的人工智能(AI),人類最終可能還得依靠人工智能本身。谷歌的想法是:讓AI互為攻防,在“互毆”中進化、學習防御之道。

美國科技雜志《麻省理工科技評論》(MIT Technology Review)近日報道,將于今年12月份舉辦的頂級學術會議——神經信息處理系統大會(NIPS 2017)上,會有一個關于AI攻擊和防御對抗比賽(Competition on Adversarial Attacks and Defenses)的成果發布。麻省理工科技評論稱,這場比賽預示著進攻性AI和防御性AI算法之間的戰斗,可能是網絡安全和網絡戰爭的未來。

該比賽由谷歌的研究員牽頭組織,并在谷歌旗下的數據公司Kaggle的平臺上運行。

機器學習,特別是深度學習,正在迅速成為許多行業不可或缺的工具。該技術涉及將數據饋送到特殊類型的計算機程序中,指定特定結果,并使機器開發出自己的算法,來擬合結果。而深度學習更是通過調整數學模擬神經元巨大的互連網絡參數,來做到這一點。

然而,目前大多數現有的機器學習的魯棒性(robustness,系統的抗干擾能力)很差,容易受對抗樣本的影響。樣本經過輕微修改后,可能就會讓機器學習發生錯誤。這些修改可能人類幾乎無法看出,這可能會對機器學習分類器的安全性產生不利影響。因此,這一比賽主要也是為了加快研究機器學習分類器的對抗樣本,提升其魯棒性。

據Kaggle官網消息,該比賽分有3輪:第一輪為無目的對抗攻擊(Non-targeted Adversarial Attack),即競賽者所提交的系統需要對任何類別的圖片進行處理,使得某個通用機器學習分類器無法識別;第二輪為有針對性的對抗攻擊(Targeted Adversarial Attack),即競賽者所提交的系統需要對給定的圖片進行處理,使得某個通用機器學習分類器無法識別;第三輪為防御對抗攻擊(Defense Against Adversarial Attack),即競賽者需要構建一個強大的機器學習分類器,使通用機器擁有足夠的魯棒性能正確鑒別對抗性的圖像。

在每個階段的比賽中,參賽者都被要求制作并提交解決相應任務的程序,舉辦方會通過攻擊程序來評估該程序的等級。

據Kaggle官網,該比賽將于8月1日、9月1日、9月15日分別啟動三輪開發進程,并在 10月1日截止。最終結果,將會于12月舉辦的NIPS 2017大會上揭曉。

谷歌大腦的研究員Ian Goodfellow說,“對抗性的機器學習比常規的機器學習更難研究,因為很難說是你的攻擊強力,還是你的防御實在太虛弱。”Goodfellow是人工智能領域的頂級專家,因提出生成對抗網絡(GANs)而聞名。

隨著機器學習的普及,當機器學習能被用來盈利或者做壞事時,對黑客來說,躲開網絡防火墻等安全措施,安裝惡意軟件將變得更加便捷,這也引起了人們的恐慌。“計算機安全肯定是朝著機器學習的方向走,”Goodfellow稱,“壞人會用機器學習來使他們對網絡的攻擊自動化,而我們要用機器學習來進行防御。”

目前,Kaggle已經成為算法開發的寶地,并成為培養有才華的數據科學家的溫床。該公司于3月份被Google收購,現在已成為Google Cloud平臺的一部分。Goodfellow和另一位谷歌大腦研究員Alexey Kurakin在收購之前,就曾提出過比賽的想法。

Kaggle的首席技術官(CTO)兼共同創始人Benjamin Hamner表示,希望這個比賽能夠引起大家的關注。“當機器學習被更廣泛的應用,了解對抗學習的問題和風險變得越來越重要”, Hamner表示。

Hamner認為,公開比賽遠比直接宣傳新型網絡攻擊會帶來相關風險來的有效。他補充說,“我們相信這個研究最好是公開地建立和分享,而不是閉門造車。”

關鍵字:谷歌機器學習

本文摘自:澎湃新聞

x 谷歌讓人工智能在“互毆”中學習,以對抗未來的超級網絡攻擊 掃一掃
分享本文到朋友圈
當前位置:安全企業動態 → 正文

谷歌讓人工智能在“互毆”中學習,以對抗未來的超級網絡攻擊

責任編輯:editor007 |來源:企業網D1Net  2017-07-23 21:52:36 本文摘自:澎湃新聞

想要對抗惡意的人工智能(AI),人類最終可能還得依靠人工智能本身。谷歌的想法是:讓AI互為攻防,在“互毆”中進化、學習防御之道。

美國科技雜志《麻省理工科技評論》(MIT Technology Review)近日報道,將于今年12月份舉辦的頂級學術會議——神經信息處理系統大會(NIPS 2017)上,會有一個關于AI攻擊和防御對抗比賽(Competition on Adversarial Attacks and Defenses)的成果發布。麻省理工科技評論稱,這場比賽預示著進攻性AI和防御性AI算法之間的戰斗,可能是網絡安全和網絡戰爭的未來。

該比賽由谷歌的研究員牽頭組織,并在谷歌旗下的數據公司Kaggle的平臺上運行。

機器學習,特別是深度學習,正在迅速成為許多行業不可或缺的工具。該技術涉及將數據饋送到特殊類型的計算機程序中,指定特定結果,并使機器開發出自己的算法,來擬合結果。而深度學習更是通過調整數學模擬神經元巨大的互連網絡參數,來做到這一點。

然而,目前大多數現有的機器學習的魯棒性(robustness,系統的抗干擾能力)很差,容易受對抗樣本的影響。樣本經過輕微修改后,可能就會讓機器學習發生錯誤。這些修改可能人類幾乎無法看出,這可能會對機器學習分類器的安全性產生不利影響。因此,這一比賽主要也是為了加快研究機器學習分類器的對抗樣本,提升其魯棒性。

據Kaggle官網消息,該比賽分有3輪:第一輪為無目的對抗攻擊(Non-targeted Adversarial Attack),即競賽者所提交的系統需要對任何類別的圖片進行處理,使得某個通用機器學習分類器無法識別;第二輪為有針對性的對抗攻擊(Targeted Adversarial Attack),即競賽者所提交的系統需要對給定的圖片進行處理,使得某個通用機器學習分類器無法識別;第三輪為防御對抗攻擊(Defense Against Adversarial Attack),即競賽者需要構建一個強大的機器學習分類器,使通用機器擁有足夠的魯棒性能正確鑒別對抗性的圖像。

在每個階段的比賽中,參賽者都被要求制作并提交解決相應任務的程序,舉辦方會通過攻擊程序來評估該程序的等級。

據Kaggle官網,該比賽將于8月1日、9月1日、9月15日分別啟動三輪開發進程,并在 10月1日截止。最終結果,將會于12月舉辦的NIPS 2017大會上揭曉。

谷歌大腦的研究員Ian Goodfellow說,“對抗性的機器學習比常規的機器學習更難研究,因為很難說是你的攻擊強力,還是你的防御實在太虛弱。”Goodfellow是人工智能領域的頂級專家,因提出生成對抗網絡(GANs)而聞名。

隨著機器學習的普及,當機器學習能被用來盈利或者做壞事時,對黑客來說,躲開網絡防火墻等安全措施,安裝惡意軟件將變得更加便捷,這也引起了人們的恐慌。“計算機安全肯定是朝著機器學習的方向走,”Goodfellow稱,“壞人會用機器學習來使他們對網絡的攻擊自動化,而我們要用機器學習來進行防御。”

目前,Kaggle已經成為算法開發的寶地,并成為培養有才華的數據科學家的溫床。該公司于3月份被Google收購,現在已成為Google Cloud平臺的一部分。Goodfellow和另一位谷歌大腦研究員Alexey Kurakin在收購之前,就曾提出過比賽的想法。

Kaggle的首席技術官(CTO)兼共同創始人Benjamin Hamner表示,希望這個比賽能夠引起大家的關注。“當機器學習被更廣泛的應用,了解對抗學習的問題和風險變得越來越重要”, Hamner表示。

Hamner認為,公開比賽遠比直接宣傳新型網絡攻擊會帶來相關風險來的有效。他補充說,“我們相信這個研究最好是公開地建立和分享,而不是閉門造車。”

關鍵字:谷歌機器學習

本文摘自:澎湃新聞

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 吉林市| 元氏县| 承德县| 抚远县| 鄂温| 怀来县| 乌审旗| 青冈县| 泗阳县| 弋阳县| 垦利县| 台州市| 敖汉旗| 驻马店市| 钟祥市| 平陆县| 沾益县| 常宁市| 天水市| 河津市| 屯昌县| 茶陵县| 尖扎县| 靖西县| 水富县| 丁青县| 南城县| 图们市| 萨嘎县| 榆树市| 勐海县| 清新县| 景洪市| 肇州县| 北辰区| 营口市| 新沂市| 县级市| 高雄市| 鸡西市| 年辖:市辖区|