精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:服務器企業動態 → 正文

人工智能是否會危及人類未來?

責任編輯:editor004 作者:俞陶然 |來源:企業網D1Net  2015-01-12 10:53:57 本文摘自:解放牛網-解放日報

近日,英國理論物理學家霍金語出驚人,預言人工智能科技如果不加控制地發展,將超越人類智能,并控制或滅絕人類。無獨有偶,牛津大學哲學教授、人類未來研究所創建者博斯特羅姆近日也指出,超級人工智能是人類未來最大的存在風險,其風險性高于自然災害、環境惡化、流行疾病。

兩位英國學者的觀點是否合理?人工智能會不會發展到人類無法駕馭的超級智能階段?記者采訪了研究人工智能哲學的復旦大學哲學學院教授徐英瑾。

圖靈為人工智能設立標準

徐英瑾介紹,人工智能學科緣起于一篇經典論文和一次重要會議。

1950年,英國數學家、邏輯學家、計算機科學理論奠基人圖靈在《心智》雜志發表論文《計算機器和智能》,提出了著名的“圖靈測試”——如果一臺機器能夠與人展開對話(通過電傳設備),并且會被人誤以為它也是人,那么這臺機器就具有智能。

顯然,這是一個帶有行為主義色彩的“人工智能”定義,因為該定義沒有從機器內部機制著手,而是通過其外在行為來判斷它是否具有智能。其好處是,繞開了“智能的本質”這個眾說紛紜的問題,給人工智能發展設定了一個目標:開發出能通過圖靈測試的機器。

1956年,一群學者在美國達特茅斯學院參加會議,探討如何利用問世不久的計算機實現人類智能。會議籌備期間,后來獲得計算機科學最高獎——圖靈獎的麥卡錫提議用“Artificial Intelligence”(人工智能)一詞來稱呼這門新興學科,得到了與會者認同。在這次會議上,學者們討論了如何在人類智能水平上實現機器智能,而不是用特定算法解決一些具體問題。舉個例子,IBM公司研制的“深藍”計算機能夠在與國際象棋世界冠軍卡斯帕羅夫的對弈中勝出,但并不能由此認為“深藍”擁有了超級人工智能。這是因為,它只是在某個方面的能力上超過人類,而且無法通過圖靈測試。

如果霍金擔心的超級計算機有朝一日問世,那它必定在綜合思維能力上超出人類,這樣才可能擁有“僭越”的想法,以及控制或消滅人類的能力。

霍金警示的風險理論上存在

值得“慶幸”的是,目前,人工智能的全球領先水平與超級人工智能相去甚遠。學術界普遍認為,世界上還沒有機器能通過圖靈測試。

對于這一現狀,有三種回應觀點——

第一種觀點是:圖靈、司馬賀等人工智能學科元老提出的全面模擬人類智能的想法,太好高騖遠。這種玄想或許在未來會成真,但目前為實現這個想法做研究,純屬浪費精力。業界目前應做一些踏實的人工智能研究,滿足于制造解決特殊問題的求解器。徐英瑾發現,許多人工智能業內人士持這一觀點。由此可見,霍金的警告有點杞人憂天的味道。

第二種觀點是:全面實現人類智能的機器是不可能造出來的,就像造不出永動機一樣。學者們提出過多種論證,試圖從哲學、邏輯層面論證這種不可能性,其中非常著名的有美國哲學家塞爾提出的“漢字屋論證”(也稱“中文房間思想實驗”)以及英國理論物理學家、數學家彭羅斯提出的“從哥德爾不完備性定理出發的論證”,但這些論證都遭到了學術界反駁。徐英瑾認為,“漢字屋論證”和彭羅斯的論證都是站不住腳的,超級人工智能并沒有在理論上“被判出局”。

第三種觀點與第一種有相近之處,認為全面實現人類智能的機器是能夠造出來的,但難度很大。如果當下的人工智能研究路子不改變,那么點滴成果的積累也未必能質變為全面突破。“我持這種觀點。”徐英瑾說,“所以我認為霍金、博斯特羅姆警示的風險從理論上來說是存在的,但在未來相當長時間內不會成為現實。”

大數據技術有先天缺陷

在這位復旦學者看來,如今十分熱門的大數據技術,一旦過度應用于人工智能領域,就是一條錯誤的路子。

大數據技術催生了數據科學。與傳統的科學研究范式不同,數據科學不再追求因果關系,而是按照“樣本=總體”的思路對海量數據進行深入挖掘和統計分析,尋求各個事物間的相關性。很多時候,大數據統計出的是“2+2=3.9”這類近似結果,精確度上的略微損失,換來了對事物間相關關系的準確預測。

徐英瑾認為,大數據分析是西方經驗論哲學在當代的一種表現形式。近代西方哲學分為兩大流派:經驗論和唯理論。經驗論認為,人的感性經驗是一切知識和觀念的唯一來源;唯理論與之針鋒相對,認為具有普遍必然性的知識并非來自經驗,而是來自人與生俱來的理性。大數據研究范式推崇海量數據的采集,那些用于數據采集的攝像頭、傳感器等設備好比人類感官的延伸;還推崇大樣本的統計學分析,用它取代因果分析。這種看重經驗采集、貶低理性推理的模式背后,正是經驗論哲學觀。

就像經驗論有其局限性一樣,大數據分析也有局限。以基于大數據技術的“谷歌翻譯”為例,這種人工智能系統的研發團隊沒有通過編程定義語法規則,因為完善的語法編程目前還無法實現。他們采用的主要技術方案,是利用大數據統計不斷調整翻譯結果的相關性,優化翻譯結果。這樣做的好處是,翻譯系統會隨著數據的積累而不斷改善。但目前,使用“谷歌翻譯”的結果只能幫助人們大致理解陌生語言,有時候得到的翻譯結果很不通順。“大數據翻譯系統缺少深層語法結構,這種結構好比唯理論看重的先天理性,缺少了它,人工智能系統就無法譯出完善的自然語言。”徐英瑾說。

而讓機器“說”出人們在日常生活中說的自然語言,正是圖靈測試所要求的。在人工智能領域,“自然語言處理”占有重要地位,已發展成一個相對獨立的研究領域。蘋果手機的Siri、上海企業開發的小i機器人,都是應用自然語言處理技術的人工智能產品。有興趣的讀者可以對 Siri 和小 i 機器人進行圖靈測試,看看它們的回答是否像人。

讓機器人服從“絕對命令”

在好萊塢電影《梯陣陰謀》中,美國國安局設置的超級計算機Echelon(梯陣),能通過調取、分析每個公民的各類信息,進行行為監控,還可以向人們的手機發送短信,達到不可告人的目的。

這種超級人工智能如果在未來成為現實,人類社會將毫無隱私可言。影片結尾,找到Echelon的男主角向它提問:你的宗旨是什么?Echelon的回答是“保護美國公民的自由權益”。經過一番人機對話,這臺計算機“幡然悔悟”,將自身的監視程序刪除了。

博斯特羅姆認為,科幻電影和小說中常見的自毀程序橋段,并不是解除超級人工智能威脅的最佳方案。他指出,“我們并不是要永遠抑制超級智能,或不開發行動自由的超級智能。”計算機程序的“動機選擇問題”必須得到解決。一種解決方案是將機器的目標模糊化。例如,如果想要它幫助醫生治療某種疾病,可以將目標設為“做有利于人類健康的事”。另一種解決方案是使人工智能更人性化,為其編入同情和利他主義程序。

這兩種方案,都與科幻小說家阿西莫夫提出的“機器人三定律”相通。三條定律分別是:第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機器人必須服從人類的命令;第三法則:在不違背第一和第二法則的情況下,機器人必須保護自己。“這堪稱機器人版的‘絕對命令’學說。哲學家康德提出的‘絕對命令’要求,人應該在任何情況下把自己和他人當作目的,而非手段。”徐英瑾評論道,“未來出現超級人工智能后,應將這種機器人倫理以立法形式確立下來,防止瘋狂的科學家開發出旨在控制甚至毀滅人類的機器。”

相關鏈接

漢字屋論證

一個母語是英語、對漢語一竅不通的人,呆在一間只有一個開口的封閉房間里。屋內有一本用英文寫的說明漢語語法和漢字組合規則的手冊,以及一大堆漢字符號。屋外的人不斷向屋內遞進用漢字寫成的問題。屋子里的人便按照手冊上的說明,將漢字符號組合成對問題的解答,并將答案遞出房間。

在這個思想實驗中,屋內人相當于計算機,手冊相當于計算機程序。塞爾想以此證明,正如屋內人不可能通過手冊理解漢語一樣,計算機不可能通過程序獲得理解力,即馮·諾依曼型計算機不可能具備強人工智能。

關鍵字:人工智能谷歌

本文摘自:解放牛網-解放日報

x 人工智能是否會危及人類未來? 掃一掃
分享本文到朋友圈
當前位置:服務器企業動態 → 正文

人工智能是否會危及人類未來?

責任編輯:editor004 作者:俞陶然 |來源:企業網D1Net  2015-01-12 10:53:57 本文摘自:解放牛網-解放日報

近日,英國理論物理學家霍金語出驚人,預言人工智能科技如果不加控制地發展,將超越人類智能,并控制或滅絕人類。無獨有偶,牛津大學哲學教授、人類未來研究所創建者博斯特羅姆近日也指出,超級人工智能是人類未來最大的存在風險,其風險性高于自然災害、環境惡化、流行疾病。

兩位英國學者的觀點是否合理?人工智能會不會發展到人類無法駕馭的超級智能階段?記者采訪了研究人工智能哲學的復旦大學哲學學院教授徐英瑾。

圖靈為人工智能設立標準

徐英瑾介紹,人工智能學科緣起于一篇經典論文和一次重要會議。

1950年,英國數學家、邏輯學家、計算機科學理論奠基人圖靈在《心智》雜志發表論文《計算機器和智能》,提出了著名的“圖靈測試”——如果一臺機器能夠與人展開對話(通過電傳設備),并且會被人誤以為它也是人,那么這臺機器就具有智能。

顯然,這是一個帶有行為主義色彩的“人工智能”定義,因為該定義沒有從機器內部機制著手,而是通過其外在行為來判斷它是否具有智能。其好處是,繞開了“智能的本質”這個眾說紛紜的問題,給人工智能發展設定了一個目標:開發出能通過圖靈測試的機器。

1956年,一群學者在美國達特茅斯學院參加會議,探討如何利用問世不久的計算機實現人類智能。會議籌備期間,后來獲得計算機科學最高獎——圖靈獎的麥卡錫提議用“Artificial Intelligence”(人工智能)一詞來稱呼這門新興學科,得到了與會者認同。在這次會議上,學者們討論了如何在人類智能水平上實現機器智能,而不是用特定算法解決一些具體問題。舉個例子,IBM公司研制的“深藍”計算機能夠在與國際象棋世界冠軍卡斯帕羅夫的對弈中勝出,但并不能由此認為“深藍”擁有了超級人工智能。這是因為,它只是在某個方面的能力上超過人類,而且無法通過圖靈測試。

如果霍金擔心的超級計算機有朝一日問世,那它必定在綜合思維能力上超出人類,這樣才可能擁有“僭越”的想法,以及控制或消滅人類的能力。

霍金警示的風險理論上存在

值得“慶幸”的是,目前,人工智能的全球領先水平與超級人工智能相去甚遠。學術界普遍認為,世界上還沒有機器能通過圖靈測試。

對于這一現狀,有三種回應觀點——

第一種觀點是:圖靈、司馬賀等人工智能學科元老提出的全面模擬人類智能的想法,太好高騖遠。這種玄想或許在未來會成真,但目前為實現這個想法做研究,純屬浪費精力。業界目前應做一些踏實的人工智能研究,滿足于制造解決特殊問題的求解器。徐英瑾發現,許多人工智能業內人士持這一觀點。由此可見,霍金的警告有點杞人憂天的味道。

第二種觀點是:全面實現人類智能的機器是不可能造出來的,就像造不出永動機一樣。學者們提出過多種論證,試圖從哲學、邏輯層面論證這種不可能性,其中非常著名的有美國哲學家塞爾提出的“漢字屋論證”(也稱“中文房間思想實驗”)以及英國理論物理學家、數學家彭羅斯提出的“從哥德爾不完備性定理出發的論證”,但這些論證都遭到了學術界反駁。徐英瑾認為,“漢字屋論證”和彭羅斯的論證都是站不住腳的,超級人工智能并沒有在理論上“被判出局”。

第三種觀點與第一種有相近之處,認為全面實現人類智能的機器是能夠造出來的,但難度很大。如果當下的人工智能研究路子不改變,那么點滴成果的積累也未必能質變為全面突破。“我持這種觀點。”徐英瑾說,“所以我認為霍金、博斯特羅姆警示的風險從理論上來說是存在的,但在未來相當長時間內不會成為現實。”

大數據技術有先天缺陷

在這位復旦學者看來,如今十分熱門的大數據技術,一旦過度應用于人工智能領域,就是一條錯誤的路子。

大數據技術催生了數據科學。與傳統的科學研究范式不同,數據科學不再追求因果關系,而是按照“樣本=總體”的思路對海量數據進行深入挖掘和統計分析,尋求各個事物間的相關性。很多時候,大數據統計出的是“2+2=3.9”這類近似結果,精確度上的略微損失,換來了對事物間相關關系的準確預測。

徐英瑾認為,大數據分析是西方經驗論哲學在當代的一種表現形式。近代西方哲學分為兩大流派:經驗論和唯理論。經驗論認為,人的感性經驗是一切知識和觀念的唯一來源;唯理論與之針鋒相對,認為具有普遍必然性的知識并非來自經驗,而是來自人與生俱來的理性。大數據研究范式推崇海量數據的采集,那些用于數據采集的攝像頭、傳感器等設備好比人類感官的延伸;還推崇大樣本的統計學分析,用它取代因果分析。這種看重經驗采集、貶低理性推理的模式背后,正是經驗論哲學觀。

就像經驗論有其局限性一樣,大數據分析也有局限。以基于大數據技術的“谷歌翻譯”為例,這種人工智能系統的研發團隊沒有通過編程定義語法規則,因為完善的語法編程目前還無法實現。他們采用的主要技術方案,是利用大數據統計不斷調整翻譯結果的相關性,優化翻譯結果。這樣做的好處是,翻譯系統會隨著數據的積累而不斷改善。但目前,使用“谷歌翻譯”的結果只能幫助人們大致理解陌生語言,有時候得到的翻譯結果很不通順。“大數據翻譯系統缺少深層語法結構,這種結構好比唯理論看重的先天理性,缺少了它,人工智能系統就無法譯出完善的自然語言。”徐英瑾說。

而讓機器“說”出人們在日常生活中說的自然語言,正是圖靈測試所要求的。在人工智能領域,“自然語言處理”占有重要地位,已發展成一個相對獨立的研究領域。蘋果手機的Siri、上海企業開發的小i機器人,都是應用自然語言處理技術的人工智能產品。有興趣的讀者可以對 Siri 和小 i 機器人進行圖靈測試,看看它們的回答是否像人。

讓機器人服從“絕對命令”

在好萊塢電影《梯陣陰謀》中,美國國安局設置的超級計算機Echelon(梯陣),能通過調取、分析每個公民的各類信息,進行行為監控,還可以向人們的手機發送短信,達到不可告人的目的。

這種超級人工智能如果在未來成為現實,人類社會將毫無隱私可言。影片結尾,找到Echelon的男主角向它提問:你的宗旨是什么?Echelon的回答是“保護美國公民的自由權益”。經過一番人機對話,這臺計算機“幡然悔悟”,將自身的監視程序刪除了。

博斯特羅姆認為,科幻電影和小說中常見的自毀程序橋段,并不是解除超級人工智能威脅的最佳方案。他指出,“我們并不是要永遠抑制超級智能,或不開發行動自由的超級智能。”計算機程序的“動機選擇問題”必須得到解決。一種解決方案是將機器的目標模糊化。例如,如果想要它幫助醫生治療某種疾病,可以將目標設為“做有利于人類健康的事”。另一種解決方案是使人工智能更人性化,為其編入同情和利他主義程序。

這兩種方案,都與科幻小說家阿西莫夫提出的“機器人三定律”相通。三條定律分別是:第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機器人必須服從人類的命令;第三法則:在不違背第一和第二法則的情況下,機器人必須保護自己。“這堪稱機器人版的‘絕對命令’學說。哲學家康德提出的‘絕對命令’要求,人應該在任何情況下把自己和他人當作目的,而非手段。”徐英瑾評論道,“未來出現超級人工智能后,應將這種機器人倫理以立法形式確立下來,防止瘋狂的科學家開發出旨在控制甚至毀滅人類的機器。”

相關鏈接

漢字屋論證

一個母語是英語、對漢語一竅不通的人,呆在一間只有一個開口的封閉房間里。屋內有一本用英文寫的說明漢語語法和漢字組合規則的手冊,以及一大堆漢字符號。屋外的人不斷向屋內遞進用漢字寫成的問題。屋子里的人便按照手冊上的說明,將漢字符號組合成對問題的解答,并將答案遞出房間。

在這個思想實驗中,屋內人相當于計算機,手冊相當于計算機程序。塞爾想以此證明,正如屋內人不可能通過手冊理解漢語一樣,計算機不可能通過程序獲得理解力,即馮·諾依曼型計算機不可能具備強人工智能。

關鍵字:人工智能谷歌

本文摘自:解放牛網-解放日報

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 友谊县| 盐边县| 陆川县| 漠河县| 印江| 鄢陵县| 策勒县| 静海县| 镶黄旗| 新乐市| 西吉县| 钟山县| 沐川县| 东平县| 胶州市| 六枝特区| 罗定市| 青海省| 建湖县| 社旗县| 瓮安县| 当雄县| 江门市| 获嘉县| 新泰市| 武胜县| 黑水县| 双牌县| 舞阳县| 呼和浩特市| 商洛市| 莲花县| 新竹市| 景德镇市| 九龙坡区| 报价| 海阳市| 永川市| 湖北省| 民县| 漯河市|