精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

意識的困難問題:我們如何知道人工智能有了意識?

責任編輯:zsheng |來源:企業網D1Net  2019-04-14 15:34:10 本文摘自:新浪科技

作者簡介:喬·弗洛里希(Joel Frohlich)是加州大學洛杉磯分校的一位博士后研究者,在馬丁·蒙蒂的實驗室中從事意識研究,他在加州大學洛杉磯分校獲得了神經科學博士學位,師從沙法利·耶斯特(Shafali Jeste),當時的研究方向是神經發育紊亂的生物標記物。目前他還是科學交流網站“Knowing Neurons”的總編輯。
哲學僵尸應該有能力提出有關體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。

澳大利亞哲學家大衛·查莫斯(David Chalmers)有一個著名的問題是,是否可以想象“哲學僵尸”(philosophical zombies)——那些表現得像你我一樣卻又缺乏主觀經驗的人——的存在?這個問題引起了很多學者對意識的興趣,包括我。原因在于,如果這種僵尸(或者說精密但毫無感情的機器人)可能存在,那么僅僅用物理屬性——關于大腦或類似大腦的機制——就無法解釋意識體驗。相反,我們必須考慮一些額外的精神屬性,才能解釋什么是有意識的感覺。弄清楚這些心理屬性是如何產生的,就成為所謂的“意識的困難問題”。

但是,對于查莫斯的哲學僵尸一說,我有一個小小的問題。哲學僵尸應該有能力提出有關體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。在播客“Making Sense”(此前的名稱是“Waking Up”)的一集節目中,查莫斯與神經學家兼作家薩姆·哈里斯(Sam Harris)討論了這一問題。“我認為至少設想一個能這么做的系統并不是特別困難,”查莫斯說,“我的意思是,我現在正與你交談,而你正在做出大量有關意識的評論,這些評論似乎很強烈地表明你具有意識。盡管如此,我至少可以考慮這么一個想法,即你并沒有意識,你實際上是一個僵尸,你發出所有這些噪音的同時內心并沒有任何意識。”

這不是一個嚴格的學術問題。如果谷歌的DeepMind公司開發了一個人工智能,它開始提問“為什么紅色感覺像紅色,而不是其他什么東西”,那么就自有少數可能的解釋。或許它從別人那里聽到了這個問題。這是可能的,例如,人工智能可能只需要簡單地閱讀有關意識的論文,就可以學會提出關于意識的問題。它還可能經過編程來提出這個問題,就像視頻游戲中的角色一樣。或者,它可能從隨機噪音中蹦出了這么一個問題。很顯然,提出有關意識的問題本身并不能說明任何事情。但是,如果沒有從其他來源聽到這些問題,或者沒有足夠的隨機輸出的話,一個人工智能僵尸會自己構想出這種問題嗎?對我來說,答案顯然是否定的。如果我是對的,那么我們就應該認真考慮當一個人工智能自發地提出有關主觀體驗的問題時,它就很可能是有意識的。因為我們不知道在沒有確定一個人工智能是否有意識的情況下,拔掉它的電源是否合乎道德。我們最好現在就開始注意聽取這些問題。

我們的意識體驗由“感質”(quale)組成。感質即感官感受的主觀方面,例如紅色中的紅,甜味中的甜。構成意識體驗的感質是不可簡化的,無法被映射到其他任何事物上。如果我天生失明,那么任何人都無法讓我感受到鮮血和玫瑰花共有的顏色感受,無論描述得多么清晰。即使我是發展出盲視能力——盡管失明但是能夠避開障礙物并準確猜出電腦顯示屏上物體出現的位置——的眾多失明者之一,情況也同樣如此。

盲視似乎表明一些行為可以完全機械化,也就是說,可以完全沒有任何主觀意識地做出某些行為,這回應了查莫斯的哲學僵尸概念。盲視者的大腦似乎利用了視覺系統的前意識區域,在沒有視覺體驗的情況下產生視覺行為。這種情況經常發生在一個人遭受中風或其他視覺皮層損傷之后。視覺皮層是處理視覺信息的大腦皮層。由于此時人的眼睛仍然是健康的,因此眼睛可能會將隱藏在意識中的信息提供給特定的大腦區域,比如上丘(superior colliculus)。

出于同樣的原因,也存在少數聾人具有聽力的案例。2017年發表于《哲學心理學》(Philosophical Psychology)期刊的一篇報告詳述了一個這樣的案例,一位被稱為LS的男性患者盡管天生失聰,卻能根據內容區分不同聲音。對于像LS這樣的人,這種辨別能力是在寂靜中產生的。但是,如果一個聾人問出類似正常人所提出的問題,比如“那個聲音聽起來難道不是很奇怪嗎?”那么我們就有充分的理由懷疑這個人是不是真的聾了(我們不能完全確定,因為這個問題可能只是一個惡作劇)。同樣,如果一個人工智能開始自發地提出只有具備意識的人才能提出的問題,那我們就會合理地產生類似的懷疑:主觀體驗是不是已經上線了?

在21世紀,我們迫切需要就意識進行圖靈測試。人工智能正在學習如何駕駛車輛、診斷肺癌以及編寫自己的計算機程序。智能對話可能在十年或二十年內就會出現,而未來的超級人工智能不會生活在真空中。它將可以訪問互聯網,讀取查莫斯和其他哲學家關于感質和意識等問題的著述。但是,如果科技公司能在本地內部網上對人工智能進行beta測試,隔離這些信息,他們就可以進行圖靈測試式的對談,以檢測有關感質的問題是否對人工智能有意義。

面對一個潛在的硅基思想,我們會提些什么問題?對于諸如“如果我的紅色是你的藍色怎么辦?”或“會有比綠色更綠的顏色嗎?”這樣的問題,人工智能給出的答案應該能讓我們了解很多關于它們精神體驗(或者缺乏精神體驗)的情況。一個具有視覺體驗的人工智能可能會思考這些問題暗示的可能性,或許會這么回答,“是的,我有時會想知道是否還會存在一種顏色,能將紅色的發熱與藍色的冷淡混合在一起。”另一方面,缺乏視覺感質的人工智能可能會回答,“那是不可能的,紅色、綠色和藍色各自以不同的波長存在。”即使人工智能試圖自由發揮或欺騙我們,比如回答“有意思,如果我的紅色是你的漢堡包怎么辦?”這就表明它沒有抓到重點。

當然,人工意識也可能具有與我們自己截然不同的感質。在這種情境下,關于特定感質(比如顏色感知)的問題可能就無法觸動人工智能。但是,關于感質本身更加抽象的問題或許就能篩選出哲學僵尸。出于這個原因,最好的問題很可能就是“意識的困難問題”本身:意識為什么能夠存在?為什么你在處理周圍世界輸入的信息時會體驗到感質?如果人工智能認為這個問題有意義,那我們就很有可能找到人工意識。然而,如果人工智能明顯不理解諸如“意識”和“感質”等概念,那么關于其內心精神生活的證據也就不存在了。

建立一個意識的“檢測器”并不是一件小事。除了這樣的圖靈測試,未來的研究人員還可能會應用今天的抽象意識理論,試圖從計算機的接線圖中推斷出意識的存在。一種這樣的理論就考慮了大腦或其他系統整合的信息量,并且已經被用于推斷腦損傷患者是否具有意識,甚至用于推斷魚群是否具有意識。事實上,在以檢測人工意識為動機的研究獲得大量資金支持之前,在腦損傷患者中檢測意識的需求就已經突破了科學上的禁忌。

我所在的實驗室由加州大學洛杉磯分校的馬丁·蒙蒂(Martin Monti)領導,致力于通過開發更好的手段,從大腦電生理活動或代謝活動來推斷意識的情況,從而改善腦損傷患者的生活。當我們拔掉那些意識清醒但沒有反應的患者的生存設備時,就會產生倫理悲劇;而如果我們拔掉人工意識的電源,就會出現同樣的悲劇。就像我在加州大學洛杉磯分校的實驗室所做的工作,就是將理論上的意識測定與腦損傷患者的臨床行為聯系起來,而未來的研究人員也必須將人工意識的理論測定與人工智能在某種圖靈測試中的表現聯系起來。到了那時,當我們不再需要教科書的時候,我們仍然需要思考僵尸無法回答的那個問題。

關鍵字:智能問題

本文摘自:新浪科技

x 意識的困難問題:我們如何知道人工智能有了意識? 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

意識的困難問題:我們如何知道人工智能有了意識?

責任編輯:zsheng |來源:企業網D1Net  2019-04-14 15:34:10 本文摘自:新浪科技

作者簡介:喬·弗洛里希(Joel Frohlich)是加州大學洛杉磯分校的一位博士后研究者,在馬丁·蒙蒂的實驗室中從事意識研究,他在加州大學洛杉磯分校獲得了神經科學博士學位,師從沙法利·耶斯特(Shafali Jeste),當時的研究方向是神經發育紊亂的生物標記物。目前他還是科學交流網站“Knowing Neurons”的總編輯。
哲學僵尸應該有能力提出有關體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。

澳大利亞哲學家大衛·查莫斯(David Chalmers)有一個著名的問題是,是否可以想象“哲學僵尸”(philosophical zombies)——那些表現得像你我一樣卻又缺乏主觀經驗的人——的存在?這個問題引起了很多學者對意識的興趣,包括我。原因在于,如果這種僵尸(或者說精密但毫無感情的機器人)可能存在,那么僅僅用物理屬性——關于大腦或類似大腦的機制——就無法解釋意識體驗。相反,我們必須考慮一些額外的精神屬性,才能解釋什么是有意識的感覺。弄清楚這些心理屬性是如何產生的,就成為所謂的“意識的困難問題”。

但是,對于查莫斯的哲學僵尸一說,我有一個小小的問題。哲學僵尸應該有能力提出有關體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。在播客“Making Sense”(此前的名稱是“Waking Up”)的一集節目中,查莫斯與神經學家兼作家薩姆·哈里斯(Sam Harris)討論了這一問題。“我認為至少設想一個能這么做的系統并不是特別困難,”查莫斯說,“我的意思是,我現在正與你交談,而你正在做出大量有關意識的評論,這些評論似乎很強烈地表明你具有意識。盡管如此,我至少可以考慮這么一個想法,即你并沒有意識,你實際上是一個僵尸,你發出所有這些噪音的同時內心并沒有任何意識。”

這不是一個嚴格的學術問題。如果谷歌的DeepMind公司開發了一個人工智能,它開始提問“為什么紅色感覺像紅色,而不是其他什么東西”,那么就自有少數可能的解釋。或許它從別人那里聽到了這個問題。這是可能的,例如,人工智能可能只需要簡單地閱讀有關意識的論文,就可以學會提出關于意識的問題。它還可能經過編程來提出這個問題,就像視頻游戲中的角色一樣。或者,它可能從隨機噪音中蹦出了這么一個問題。很顯然,提出有關意識的問題本身并不能說明任何事情。但是,如果沒有從其他來源聽到這些問題,或者沒有足夠的隨機輸出的話,一個人工智能僵尸會自己構想出這種問題嗎?對我來說,答案顯然是否定的。如果我是對的,那么我們就應該認真考慮當一個人工智能自發地提出有關主觀體驗的問題時,它就很可能是有意識的。因為我們不知道在沒有確定一個人工智能是否有意識的情況下,拔掉它的電源是否合乎道德。我們最好現在就開始注意聽取這些問題。

我們的意識體驗由“感質”(quale)組成。感質即感官感受的主觀方面,例如紅色中的紅,甜味中的甜。構成意識體驗的感質是不可簡化的,無法被映射到其他任何事物上。如果我天生失明,那么任何人都無法讓我感受到鮮血和玫瑰花共有的顏色感受,無論描述得多么清晰。即使我是發展出盲視能力——盡管失明但是能夠避開障礙物并準確猜出電腦顯示屏上物體出現的位置——的眾多失明者之一,情況也同樣如此。

盲視似乎表明一些行為可以完全機械化,也就是說,可以完全沒有任何主觀意識地做出某些行為,這回應了查莫斯的哲學僵尸概念。盲視者的大腦似乎利用了視覺系統的前意識區域,在沒有視覺體驗的情況下產生視覺行為。這種情況經常發生在一個人遭受中風或其他視覺皮層損傷之后。視覺皮層是處理視覺信息的大腦皮層。由于此時人的眼睛仍然是健康的,因此眼睛可能會將隱藏在意識中的信息提供給特定的大腦區域,比如上丘(superior colliculus)。

出于同樣的原因,也存在少數聾人具有聽力的案例。2017年發表于《哲學心理學》(Philosophical Psychology)期刊的一篇報告詳述了一個這樣的案例,一位被稱為LS的男性患者盡管天生失聰,卻能根據內容區分不同聲音。對于像LS這樣的人,這種辨別能力是在寂靜中產生的。但是,如果一個聾人問出類似正常人所提出的問題,比如“那個聲音聽起來難道不是很奇怪嗎?”那么我們就有充分的理由懷疑這個人是不是真的聾了(我們不能完全確定,因為這個問題可能只是一個惡作劇)。同樣,如果一個人工智能開始自發地提出只有具備意識的人才能提出的問題,那我們就會合理地產生類似的懷疑:主觀體驗是不是已經上線了?

在21世紀,我們迫切需要就意識進行圖靈測試。人工智能正在學習如何駕駛車輛、診斷肺癌以及編寫自己的計算機程序。智能對話可能在十年或二十年內就會出現,而未來的超級人工智能不會生活在真空中。它將可以訪問互聯網,讀取查莫斯和其他哲學家關于感質和意識等問題的著述。但是,如果科技公司能在本地內部網上對人工智能進行beta測試,隔離這些信息,他們就可以進行圖靈測試式的對談,以檢測有關感質的問題是否對人工智能有意義。

面對一個潛在的硅基思想,我們會提些什么問題?對于諸如“如果我的紅色是你的藍色怎么辦?”或“會有比綠色更綠的顏色嗎?”這樣的問題,人工智能給出的答案應該能讓我們了解很多關于它們精神體驗(或者缺乏精神體驗)的情況。一個具有視覺體驗的人工智能可能會思考這些問題暗示的可能性,或許會這么回答,“是的,我有時會想知道是否還會存在一種顏色,能將紅色的發熱與藍色的冷淡混合在一起。”另一方面,缺乏視覺感質的人工智能可能會回答,“那是不可能的,紅色、綠色和藍色各自以不同的波長存在。”即使人工智能試圖自由發揮或欺騙我們,比如回答“有意思,如果我的紅色是你的漢堡包怎么辦?”這就表明它沒有抓到重點。

當然,人工意識也可能具有與我們自己截然不同的感質。在這種情境下,關于特定感質(比如顏色感知)的問題可能就無法觸動人工智能。但是,關于感質本身更加抽象的問題或許就能篩選出哲學僵尸。出于這個原因,最好的問題很可能就是“意識的困難問題”本身:意識為什么能夠存在?為什么你在處理周圍世界輸入的信息時會體驗到感質?如果人工智能認為這個問題有意義,那我們就很有可能找到人工意識。然而,如果人工智能明顯不理解諸如“意識”和“感質”等概念,那么關于其內心精神生活的證據也就不存在了。

建立一個意識的“檢測器”并不是一件小事。除了這樣的圖靈測試,未來的研究人員還可能會應用今天的抽象意識理論,試圖從計算機的接線圖中推斷出意識的存在。一種這樣的理論就考慮了大腦或其他系統整合的信息量,并且已經被用于推斷腦損傷患者是否具有意識,甚至用于推斷魚群是否具有意識。事實上,在以檢測人工意識為動機的研究獲得大量資金支持之前,在腦損傷患者中檢測意識的需求就已經突破了科學上的禁忌。

我所在的實驗室由加州大學洛杉磯分校的馬丁·蒙蒂(Martin Monti)領導,致力于通過開發更好的手段,從大腦電生理活動或代謝活動來推斷意識的情況,從而改善腦損傷患者的生活。當我們拔掉那些意識清醒但沒有反應的患者的生存設備時,就會產生倫理悲劇;而如果我們拔掉人工意識的電源,就會出現同樣的悲劇。就像我在加州大學洛杉磯分校的實驗室所做的工作,就是將理論上的意識測定與腦損傷患者的臨床行為聯系起來,而未來的研究人員也必須將人工意識的理論測定與人工智能在某種圖靈測試中的表現聯系起來。到了那時,當我們不再需要教科書的時候,我們仍然需要思考僵尸無法回答的那個問題。

關鍵字:智能問題

本文摘自:新浪科技

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 南澳县| 年辖:市辖区| 高平市| 喀喇沁旗| 宝山区| 彭阳县| 都昌县| 保山市| 调兵山市| 连江县| 徐闻县| 夹江县| 广汉市| 富阳市| 林口县| 北辰区| 习水县| 垦利县| 密云县| 怀化市| 海城市| 龙门县| 宕昌县| 牙克石市| 唐河县| 万盛区| 汝州市| 大埔县| 海南省| 垫江县| 科技| 曲周县| 绿春县| 镇巴县| 静宁县| 西林县| 凌海市| 剑河县| 扎兰屯市| 舞阳县| 玉龙|