精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

八大現象論證人工智能威脅論真的存在!

責任編輯:zsheng

2018-08-29 14:35:56

摘自: it168網站

如今人工智能發展火熱,機器學習預見成熟,智能化未來似乎指日可待。表面上似乎一切都在按部就班的進行,但背后也不乏暴露出很多問題。就像近期人工智能威脅論就引發了不少的言論激戰,揪其根源還是人工智能是否能夠有意識違背人類意愿操控事務的問題。

如今人工智能發展火熱,機器學習預見成熟,智能化未來似乎指日可待。表面上似乎一切都在按部就班的進行,但背后也不乏暴露出很多問題。就像近期人工智能威脅論就引發了不少的言論激戰,揪其根源還是人工智能是否能夠有意識違背人類意愿操控事務的問題。

因此,我們或許想問:人工智能機器人究竟有多強大?機器人真的會“反噬”人類嗎?《終結者》里的Skynet(天網)會真的發生在現實生活中嗎?

強弱AI

首先我們應該區分兩個概念:強AI和弱AI。強AI 是指一種能夠思考并可以感知自身存在的假想機器。它不僅可以解決人類為其定制的任務,還可以學習新事物。

弱AI目前很常見,它是一種用于解決特定問題的應用程序,例如圖像識別、汽車駕駛、playing Go(圍棋)等,也就是我們常說的“機器學習”。

目前,我們還無法預測強AI什么時候能夠真正被研發出來。專家們經過調研推斷的結果也是“有朝一日”。

相比強AI,弱AI目前已經存在,很多領域都可以看到弱AI的身影,并且應用范圍每年都在增長。通過實例學習,機器學習幾乎可以讓我們在無需編程的情況下處理實際任務。

人工智能威脅論真的存在嗎?

我們通過建立數學模型(“學習”算法),教會機器人解決具體問題。機器人會按照我們規劃好的模型法去執行任務,也就是說機器學習的一切行為都是基于我們的操控,我們似乎不用擔心電影《終結者》天網的發生。但如果我們抱有這樣天真的想法,我們就錯了,因為機器學習仍然可能違背人類的意愿去執行錯誤的任務。

1.不良企圖

如果我們教一個無人機軍隊使用機器學習去殺人,那么結果是否符合道德行為標準?

基于這個話題還發生過一場鬧聞。2017年,谷歌正在開發一款用于軍事項目的軟件,名為Maven。該項目涉及到無人機,以及未來完全自主武器系統的制造。因此,谷歌的12名員工辭職以示抗議,另外有4000名員工簽署了一份請愿書,要求公司放棄與軍方的合同。與此同時,人工智能、倫理學領域的1000多名知名科學家一起寫了一封致谷歌的公開信,要求該公司放棄該項目并支持禁止自主武器的國際協議。

2.開發者偏見

即使機器學習算法開發人員沒有惡意,但他們中的很多人還是金錢價值觀,他們的最終目的還是為了賺錢。也就是說,他們的算法是為了使自己受益而創建的,并非是為了社會利益。例如,一些醫療算法會推薦昂貴的治療方法,卻很少推薦最佳患者治療方案。

實際生活中算法的道德規范問題似乎也沒有很大體現。例如,交通速度和車禍死亡率之間是可以存在折中方案的。我們可以將自動駕駛汽車的最高行駛速度限制在15英里\小時以下,這樣幾乎可以將車禍死亡率降到零,但這樣卻損失了汽車的其他優勢。

3.違背邏輯規范

電腦系統在默認的情況下,對邏輯規范一無所知。一種算法可以將國家預算與“最大化GDP/勞動生產率/預期壽命”的目標結合起來,但如果沒有在模型中編制限制,它可能會取消學校、收容所和環境的預算,因為它們不會直接增加GDP。

為了一個目標,我們可以讓機器學習執行任何一個復雜任務,但前提是要融入相關的邏輯規范。

4.改變人類偏好

機器學習給我們的生活帶來了很多便利,但無形之中也在改變我們的生活常態甚至個人行為偏好。例如智能電影推薦,機器學習會根據您對電影的評分,將您的偏好與其他用戶進行對比,然后向您推薦電影。長期下來,您的偏好將因為電影推薦系統而被改變,興趣范圍也會被縮小。

但可怕的是,我們并沒有意識到這種改變的發生,沒有意識到計算機對我們的操控。

5.錯誤的相關性

當完全彼此獨立的事物表現出非常相似的行為時,就會產生一種虛假的關聯,這就會造成一種錯覺,認為它們之間存在某種聯系。例如,你會認為美國的人造黃油消費與緬甸州的離婚率密切相關嗎?

我想任何一個有點學識的人都不會認為二者是相關的。但數學模型不具備這樣的經驗學識,它只是用來學習和數據概括的工具,在它的邏輯系統里,這樣相似性的曲線變化表明二者之間一定有著某種聯系。

6.反饋循環

相比錯誤相關性,反饋循環影響更大。反饋循環是指算法決策影響現實的情況,反過來又使算法確信其結論是正確的。

例如,加利福尼亞的一項預防犯罪計劃表明,警察應該根據當地的案件數量斷定犯罪率,然后根據犯罪率派遣相應的警官。但最終會陷入到這樣一個循環里:一個街區的警察增加,當地居民的報警次數就會增多,從而增高犯罪率,按照預防犯罪計劃就要派遣更多的警察,警察數量增多,人們的報案數量就又增多,報案率上升,便又增加警察數量······

7.“被污染”的參考數據

算法學習的結果很大程度上取決于參考數據,它們構成了學習的基礎。然而,數據很有可能會因為某種偶然的情況或是個人意圖而發生扭曲,即數據“被污染”。

一個經典的例子就是2016年微軟推出的聊天機器人Tay,微軟將這款機器人視為“對話理解”的實驗。微軟表示,與Tay進行的聊天越多,它就會越聰明。但是微軟的此次聊天實驗卻只進行了24小時就不得不停止,因為無辜的聊天機器人竟然在24小時內被教會了大量種族歧視、性別歧視的用語。Tay的案例為機器學習的研發工作敲了警鐘,反應了“被污染” 數據的嚴重性。

8.機器欺騙

即便是一個功能、數據都良好的模型,它工作原理的泄露也會讓惡人鉆了空子。例如,有一組研究人員研發了一種可以欺騙面部識別算法的特殊眼鏡,這種眼鏡會在圖像中引入最小的失真,從而改變面部識別結果。

怎樣解決?

2016年,奧巴馬政府的大數據工作組發布了一份報告,警告:“在自動化決策中可能存在編碼歧視”。該報告還呼吁創建遵循平等原則的算法。

但將報告完全落實應用就很難了。

首先,機器學習數學模型很難測試和修復。因為在機器學習中,一切都取決于學習樣本的大小,樣本的數量是有限的。

舉一個經典的例子:早在2015年,軟件工程師JackyAlciné曾指出谷歌照片中的圖像識別算法將他的黑人朋友歸類為“大猩猩”。谷歌對此錯誤感到震驚,并向 Alciné表示歉意,承諾修復該錯誤。然而三年后,谷歌除了禁止在圖像標記中使用“大猩猩”等類似詞語外,并沒有其他更好的解決方案。

其次,機器學習算法的決策很難被理解和解釋。神經網絡會在其內部安排加權系數來得到答案。但其過程是怎樣的呢?錯誤答案如何被修正呢?

舉兩個例子:2015年的一項研究顯示,谷歌廣告高薪工作的瀏覽次數,男性高于女性。亞馬遜當天免費送貨服務,非洲裔美國人社區(黑人社區)卻享受不到。基于這兩種情況,兩家公司均表示無法解釋這些由算法做出的決定。

基于這些算法決策,沒有人應用受到責備。因此我們需要對機器人制定出一套法律法規來規定機器人的行為決策。2018年5月,德國人邁出了第一步,他們發布了世界上第一個自動駕駛汽車指南。部分內容為:

與一切財產相比,人類生命至上。

不可避免性事故,不得有歧視,不得有任何區別性因素存在。

如果自動駕駛比人類駕駛造成的事故少,那么自動駕駛系統將成為道德要求。

很明顯,機器學習在個別任務的管理能力上確實比人類強,導致我們對機器學習的依賴程度越來越高。因此記住這些機器學習缺陷就顯得尤為重要,研發人員應該在開發階段測試好所有可能存在的問題,并設置好算法的監控措施。

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 越西县| 马鞍山市| 泾阳县| 天气| 城步| 南通市| 县级市| 宁德市| 陵水| 赞皇县| 额济纳旗| 新野县| 郎溪县| 桐乡市| 涡阳县| 桦南县| 宁明县| 鹰潭市| 大港区| 资阳市| 铁力市| 嵩明县| 集贤县| 南宁市| 谢通门县| 尤溪县| 清丰县| 琼海市| 黄大仙区| 乃东县| 鄂伦春自治旗| 富锦市| 凌源市| 晋州市| 呼图壁县| 平昌县| 利辛县| 阿合奇县| 潢川县| 炉霍县| 买车|