精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

AI和ML潛在的五大致命威脅及解決辦法

責任編輯:cres 作者:風車云馬編譯 |來源:企業網D1Net  2019-06-12 13:24:42 本文摘自:51CTO

人工智能(AI)和機器學習(ML)是這個時代最熱門的話題,科學家對此也有很大爭議,或許它們所帶來的好處怎么強調都不為過,我們也需要關注和理解AI和ML潛在的致命威脅。
 
誰敢想象,有一天機器的智能會超過人類?——未來學家稱之為奇點。著名科學家——人工智能的先驅——艾倫·圖靈(Alan Turing)在1950年提出,機器可以像孩子那樣訓練。
 
圖靈提出:“機器會思考嗎?”他在著名的論文《計算機器與智能》中探討了這個問題和相關問題的答案。
 
1955年,約翰·麥卡錫發明了一種叫做“人工智能”的編程語言LISP。幾年后,研究人員和科學家開始使用計算機編碼、識別圖像和翻譯語言等。早在1955年,人們就希望有一天能讓電腦說話和思考。
 
偉大的研究人員,如機器人學家漢斯·莫拉維克(Hans Moravec )、科幻作家弗諾·文奇(Vernor Vinge)和雷·庫茲韋爾(Ray Kurzweil),從更廣泛的意義上思考這個問題,機器什么時候能夠獨自設計實現目標的方法。
 
曾經像史蒂芬·霍金這樣的偉人警告過,當人們無法與先進的人工智能競爭時,這可能意味著人類的終結。“我想說我們不應該做的是,在不考慮潛在風險的情況下,就全力建設超級智能。”加州大學伯克利分校(University of California, Berkeley)計算機科學教授斯圖爾特·拉塞爾(Stuart J. Russell)說。
 
以下是ML和AI的五個可能的危險以及解決辦法:
 
1. 機器學習(ML)模型可能是有偏見的——本質上受人類的影響
 
盡管機器學習和人工智能很有前途,但它的模型也容易受到無意的偏見的影響。有些人認為ML模型在決策時是公正的,但他們卻忘記了,是人類在訓練這些機器——從本質上講——我們并不完美。
 
此外,在決策過程中,ML模型在處理數據時也可能存在偏差。你提供的本身不完整的數據(片面的數據),機器還會給出正確的結果嗎?
 
舉個例子,你經營一家批發商店,想建立一個模型來了解顧客。所以你建立了一個模型,希望評估顧客對商品的購買力;您還希望在年底使用模型的結果來獎勵客戶。
 
所以,你收集客戶購買記錄——那些有著長期良好信用記錄的客戶。
 
如果你最信任的一群買家碰巧在銀行負債,卻無法及時站穩腳跟,他們的購買力將大幅下降。但是,模型無法預測客戶的不可預見程度。從技術上講,如果您決定在年底輸出結果,那么得到的是有偏差的數據。
 
Note:當涉及到機器學習時,數據是一個易受影響的因素,為了克服數據偏見,請雇傭專家來處理這些數據。
 
還請注意,除了您之外,沒有人記錄客戶的這些數據——可以說,您掌握著一定的話語權。
 
數據專家應該質疑數據積累過程中存在的任何問題;他們也應該積極尋找這些偏見如何在數據中表現出來的方法。這與您創建了什么類型的數據和記錄也有關系。
 
2. 固定模式
 
在認知技術中,這是開發模型時不可忽視的風險之一。不幸的是,大多數已開發的模型,特別是為投資策略設計的模型,都存在這種風險。
 
想象一下,你花幾個月的時間為投資開發出一個模型。經過多次試驗,仍然得到了一個“準確的輸出”。但用“真實世界的輸入”來嘗試該模型時,它可能給你一個毫無價值的結果。
 
為什么會這樣?這是因為模型缺乏可變性。這個模型是使用一組特定的數據構建的。它只對設計時使用的數據有效。
 
因此,具有安全意識的AI和ML開發人員應該在將來開發任何算法模型時學會管理這種風險。通過輸入他們能找到的所有形式的數據可變性,例如,演示數據集(當然這并不是所有的數據)。
 
3.對輸出錯誤數據的解釋可能比較困難
 
對輸出錯誤數據的解釋是機器學習未來可能面臨的另一個風險。想象一下,在如此努力地工作以獲得良好的數據之后,你決定和另一個人分享成果——也許是你的老板。
 
同樣的數據結果,你老板的解釋或許與你自己的觀點都不一致。畢竟他的思維過程與你不同,因此他的見解也與你不同。
 
這種情況經常發生。這就是為什么數據科學家不僅應該在構建模型時注意,而且還應該在理解和正確解釋來自任何設計模型的輸出結果的“每一點”時注意。
 
在機器學習中,沒有錯誤和假設的空間——它必須盡可能完美。如果我們不考慮每一個角度和可能性,就有可能讓這項技術危害人類。
 
Note:對機器發布的任何信息的誤讀都可能給公司帶來厄運。因此,數據科學家、研究人員以及任何相關人員都不應該忽視這方面。他們開發機器學習模型的意圖應該是積極的而不是相反。
 
4. AI和ML還沒有被科學的解釋
 
從真正意義上說,許多科學家仍在努力全面理解AI和ML到底是什么。盡管它們還沒在新興市場站穩腳跟,但許多研究人員和數據科學家仍在努力了解更多信息。
 
許多人仍然感到害怕,因為他們相信仍然有一些未知的風險尚待了解。
 
即使是像谷歌、微軟這樣的大型科技公司仍然不完美。
 
人工智能聊天機器人Tay Ai由微軟公司于2016年3月23日發布。它是通過twitter發布的,目的是與twitter用戶互動——但不幸的是,它被認為是種族主義者。它在24小時內被關閉。
 
Facebook還發現,他們的聊天機器人偏離了最初的腳本,開始用自己創造的一種新語言交流。有趣的是,人類無法理解這種新創造的語言。很奇怪,對吧?
 
Note:為了解決“存在的威脅”,科學家和研究人員需要了解什么是AI和ML。此外,在正式向公眾發布之前,他們還必須測試、測試、再測試機器運行模式的有效性。
 
5. 這就像一個控制欲極強的不朽獨裁者
 
機器永遠在運行——這是另一個不可忽視的潛在危險。AI和ML機器人不能像人類一樣死去,他們是不朽的。一旦他們被訓練去做一些任務,他們就會夜以繼日,而且常常沒有監督。
 
如果人工智能和機器學習特性沒有得到充分的管理或監控,它們可能會發展成為一個獨立的殺手機器。當然,這項技術可能對軍方有利——但如果機器人不能區分敵人和無辜公民,無辜公民將會遭遇什么?
 
這種機器模型很容易操作。它們了解我們的恐懼、不喜歡和喜歡,并能利用這些數據來對付我們。注意:人工智能創造者必須準備好承擔全部責任,確保在設計任何算法模型時考慮到這一風險。
 
結論
 
機器學習無疑是世界上最具技術價值的能力之一,具有現實世界的商業價值——尤其是與大數據技術合并時。
 
正因為如此,我們不應該忽視這樣事實:它需要仔細的計劃來適當地避免上述潛在的威脅:數據偏差、固定的模型、錯誤輸出的解釋、不確定性和極強的控制欲。

關鍵字:人工智能

本文摘自:51CTO

x AI和ML潛在的五大致命威脅及解決辦法 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

AI和ML潛在的五大致命威脅及解決辦法

責任編輯:cres 作者:風車云馬編譯 |來源:企業網D1Net  2019-06-12 13:24:42 本文摘自:51CTO

人工智能(AI)和機器學習(ML)是這個時代最熱門的話題,科學家對此也有很大爭議,或許它們所帶來的好處怎么強調都不為過,我們也需要關注和理解AI和ML潛在的致命威脅。
 
誰敢想象,有一天機器的智能會超過人類?——未來學家稱之為奇點。著名科學家——人工智能的先驅——艾倫·圖靈(Alan Turing)在1950年提出,機器可以像孩子那樣訓練。
 
圖靈提出:“機器會思考嗎?”他在著名的論文《計算機器與智能》中探討了這個問題和相關問題的答案。
 
1955年,約翰·麥卡錫發明了一種叫做“人工智能”的編程語言LISP。幾年后,研究人員和科學家開始使用計算機編碼、識別圖像和翻譯語言等。早在1955年,人們就希望有一天能讓電腦說話和思考。
 
偉大的研究人員,如機器人學家漢斯·莫拉維克(Hans Moravec )、科幻作家弗諾·文奇(Vernor Vinge)和雷·庫茲韋爾(Ray Kurzweil),從更廣泛的意義上思考這個問題,機器什么時候能夠獨自設計實現目標的方法。
 
曾經像史蒂芬·霍金這樣的偉人警告過,當人們無法與先進的人工智能競爭時,這可能意味著人類的終結。“我想說我們不應該做的是,在不考慮潛在風險的情況下,就全力建設超級智能。”加州大學伯克利分校(University of California, Berkeley)計算機科學教授斯圖爾特·拉塞爾(Stuart J. Russell)說。
 
以下是ML和AI的五個可能的危險以及解決辦法:
 
1. 機器學習(ML)模型可能是有偏見的——本質上受人類的影響
 
盡管機器學習和人工智能很有前途,但它的模型也容易受到無意的偏見的影響。有些人認為ML模型在決策時是公正的,但他們卻忘記了,是人類在訓練這些機器——從本質上講——我們并不完美。
 
此外,在決策過程中,ML模型在處理數據時也可能存在偏差。你提供的本身不完整的數據(片面的數據),機器還會給出正確的結果嗎?
 
舉個例子,你經營一家批發商店,想建立一個模型來了解顧客。所以你建立了一個模型,希望評估顧客對商品的購買力;您還希望在年底使用模型的結果來獎勵客戶。
 
所以,你收集客戶購買記錄——那些有著長期良好信用記錄的客戶。
 
如果你最信任的一群買家碰巧在銀行負債,卻無法及時站穩腳跟,他們的購買力將大幅下降。但是,模型無法預測客戶的不可預見程度。從技術上講,如果您決定在年底輸出結果,那么得到的是有偏差的數據。
 
Note:當涉及到機器學習時,數據是一個易受影響的因素,為了克服數據偏見,請雇傭專家來處理這些數據。
 
還請注意,除了您之外,沒有人記錄客戶的這些數據——可以說,您掌握著一定的話語權。
 
數據專家應該質疑數據積累過程中存在的任何問題;他們也應該積極尋找這些偏見如何在數據中表現出來的方法。這與您創建了什么類型的數據和記錄也有關系。
 
2. 固定模式
 
在認知技術中,這是開發模型時不可忽視的風險之一。不幸的是,大多數已開發的模型,特別是為投資策略設計的模型,都存在這種風險。
 
想象一下,你花幾個月的時間為投資開發出一個模型。經過多次試驗,仍然得到了一個“準確的輸出”。但用“真實世界的輸入”來嘗試該模型時,它可能給你一個毫無價值的結果。
 
為什么會這樣?這是因為模型缺乏可變性。這個模型是使用一組特定的數據構建的。它只對設計時使用的數據有效。
 
因此,具有安全意識的AI和ML開發人員應該在將來開發任何算法模型時學會管理這種風險。通過輸入他們能找到的所有形式的數據可變性,例如,演示數據集(當然這并不是所有的數據)。
 
3.對輸出錯誤數據的解釋可能比較困難
 
對輸出錯誤數據的解釋是機器學習未來可能面臨的另一個風險。想象一下,在如此努力地工作以獲得良好的數據之后,你決定和另一個人分享成果——也許是你的老板。
 
同樣的數據結果,你老板的解釋或許與你自己的觀點都不一致。畢竟他的思維過程與你不同,因此他的見解也與你不同。
 
這種情況經常發生。這就是為什么數據科學家不僅應該在構建模型時注意,而且還應該在理解和正確解釋來自任何設計模型的輸出結果的“每一點”時注意。
 
在機器學習中,沒有錯誤和假設的空間——它必須盡可能完美。如果我們不考慮每一個角度和可能性,就有可能讓這項技術危害人類。
 
Note:對機器發布的任何信息的誤讀都可能給公司帶來厄運。因此,數據科學家、研究人員以及任何相關人員都不應該忽視這方面。他們開發機器學習模型的意圖應該是積極的而不是相反。
 
4. AI和ML還沒有被科學的解釋
 
從真正意義上說,許多科學家仍在努力全面理解AI和ML到底是什么。盡管它們還沒在新興市場站穩腳跟,但許多研究人員和數據科學家仍在努力了解更多信息。
 
許多人仍然感到害怕,因為他們相信仍然有一些未知的風險尚待了解。
 
即使是像谷歌、微軟這樣的大型科技公司仍然不完美。
 
人工智能聊天機器人Tay Ai由微軟公司于2016年3月23日發布。它是通過twitter發布的,目的是與twitter用戶互動——但不幸的是,它被認為是種族主義者。它在24小時內被關閉。
 
Facebook還發現,他們的聊天機器人偏離了最初的腳本,開始用自己創造的一種新語言交流。有趣的是,人類無法理解這種新創造的語言。很奇怪,對吧?
 
Note:為了解決“存在的威脅”,科學家和研究人員需要了解什么是AI和ML。此外,在正式向公眾發布之前,他們還必須測試、測試、再測試機器運行模式的有效性。
 
5. 這就像一個控制欲極強的不朽獨裁者
 
機器永遠在運行——這是另一個不可忽視的潛在危險。AI和ML機器人不能像人類一樣死去,他們是不朽的。一旦他們被訓練去做一些任務,他們就會夜以繼日,而且常常沒有監督。
 
如果人工智能和機器學習特性沒有得到充分的管理或監控,它們可能會發展成為一個獨立的殺手機器。當然,這項技術可能對軍方有利——但如果機器人不能區分敵人和無辜公民,無辜公民將會遭遇什么?
 
這種機器模型很容易操作。它們了解我們的恐懼、不喜歡和喜歡,并能利用這些數據來對付我們。注意:人工智能創造者必須準備好承擔全部責任,確保在設計任何算法模型時考慮到這一風險。
 
結論
 
機器學習無疑是世界上最具技術價值的能力之一,具有現實世界的商業價值——尤其是與大數據技術合并時。
 
正因為如此,我們不應該忽視這樣事實:它需要仔細的計劃來適當地避免上述潛在的威脅:數據偏差、固定的模型、錯誤輸出的解釋、不確定性和極強的控制欲。

關鍵字:人工智能

本文摘自:51CTO

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 克什克腾旗| 西乡县| 青浦区| 太和县| 保定市| 驻马店市| 长海县| 合山市| 西贡区| 霍林郭勒市| 钟祥市| 长汀县| 定襄县| 拉萨市| 平度市| 枣强县| 绥棱县| 海南省| 康马县| 前郭尔| 丰台区| 崇明县| 余姚市| 苍梧县| 宝清县| 望奎县| 平陆县| 阳泉市| 阿鲁科尔沁旗| 平果县| 星座| 海晏县| 合作市| 青神县| 依安县| 淮阳县| 鄯善县| 平顶山市| 阿坝县| 和田县| 宽城|