精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

人工智能機器人能否成為刑事責任的主體

責任編輯:zsheng |來源:企業網D1Net  2018-09-12 20:57:10 本文摘自:正義網

人工智能,是當前全球的熱點話題,亦是我國國家戰略布局的重要組成部分。智能機器人是典型的人工智能實體之一,其主要通過傳感器、數據等與外界進行交流,是具備“深度學習”及自主決策能力,能夠隨著環境變化自我調節、適應的有形實體。隨著人工智能技術的迅速發展,智能機器人的運用范圍已遍及醫療、交通、制造、軍事、教育等領域,“AlphaGo”、自動駕駛汽車、智能醫療機器人等智能機器人的出現顛覆了人類對于機器人的傳統認知。

然而,智能機器人在為人類提供便利的同時,其致人損害事件也時有發生。2007年,美國食品藥品監督管理局就曾收到指控醫療外科手術機器人導致病人遭受燒傷、切割傷與感染的投訴,數量多達200余次,其中包括89例致人死亡的事故;2015年,德國曾發生工人被工業機器人傷害致死的事故;2018年3月20日,在美國發生優步無人駕駛汽車撞人致死的交通事故,這是首例無人駕駛汽車致人死亡事故;等等。隨著智能機器人各項技術的日益成熟,其運用必然更加廣泛,類似的智能機器人侵害人類人身、財產的事例還會增多,智能機器人實施嚴重危害社會的行為將會直接威脅人類的生存。

那么,智能機器人實施犯罪行為應當如何歸責呢?有學者提出,智能機器人是一種高科技產品,僅是被人類使用的工具,智能機器人實施嚴重危害社會行為的刑事責任應當根據案件情況由研發者、生產者或使用者承擔。然而,無條件要求研發者、生產者承擔智能機器人實施犯罪行為的刑事責任,將過分加重其研發風險及成本。人工智能技術發展迅速且尚存在未知難題,智能機器人的算法程序、決策路徑等對于研發者、生產者來說仍具有一定未知性。研發者、生產者在研發、生產時如果完全不可能預見智能機器人的缺陷,刑法要求其承擔刑事責任似乎并不恰當。同時,智能機器人的“深度學習”及自主決策能力決定了使用者并不能完全預見其決策及行為,智能機器人在使用者無過失的情況下正常運行并自主決策實施嚴重危害社會的行為,此情況下要求使用者承擔刑事責任亦不具備合理性,與刑法中的“罪責自負原則”相悖。如此看來,如果智能機器人不享有刑事責任主體地位,那么在生產者、研發者、使用者均無過失而智能機器人依據自主決策實施犯罪行為的情況下,將面臨沒有刑事責任主體承擔刑事責任的窘境。倘若將此類智能機器人嚴重危害社會行為全部作為意外事件處理,則可能對人類社會安全造成重大隱患。因此,人工智能時代下有必要確認智能機器人的刑事責任主體地位。

從我國刑法規定來看,刑事責任主體須具備刑事責任能力,而行為人的刑事責任能力則通過行為人是否具備“理性”進行判斷。“理性”包括“認知理性”與“行為理性”兩個方面,通俗來說就是行為人對其危害行為的辨認能力和控制能力。“認知理性”是特定主體以感性認知為基礎,運用歸納、辯證、演繹等方法從復雜的事物中辨識、提煉本質,透過表象揭露本質的思維過程;“行為理性”則是特定主體在面臨自身欲望或要求時,運用已有知識全面地預測、權衡采取滿足自身欲望或要求行動的有利及不利后果,在充分衡量利弊后根據趨利避害的原則決定其最終將要從事行為的思維過程。我國刑法將年齡和精神狀況作為影響和決定行為人刑事責任能力的兩個因素。一般而言,人類從幼兒到成年的辨認和控制能力將逐漸變強,而精神狀況正常的行為人比精神失常的行為人具備更強的辨認和控制能力。

智能機器人刑事責任能力的認定同樣應以其是否具備“理性”作為基本依據,具體應從智能機器人“理性”的來源、智能機器人可能具備的“理性”水平兩個方面進行判斷。

其一,智能機器人的“理性”來源于人類,是人類認知理性與行為理性的延伸。人類思維、人類行為、理性思維及理性行為是界定人工智能的四大基本標準,模擬人類思維及人類行為是人工智能的基礎。一方面,智能機器人本身就承載著研發者的知識、規則、邏輯與倫理等,而其擴展認知的“深度學習”行為也是以人類社會的信息、數據為對象,并遵循研發者設定的學習目標與范圍;另一方面,人工智能具備在最大限度實現某一特定目標時確定從事或不從事某些行為的理性,而智能機器人的行為控制能力主要受研發人事前擬定的算法及程序控制,研發人在擬定算法和程序時主要以人類的行為控制作為參照,同時將人類社會的倫理道德、法律等規范作為行為守則。

其二,智能機器人具備與人類相當甚至超越人類的認知理性及行為理性。認知理性方面,智能機器人的運算邏輯是知識、信息與規則的高度統一,人類社會的知識、經驗、法律、道德等均在智能機器人內部轉為海量數據,其對自身行為社會危害性的辨認能力與人類相當甚至超越部分人類。“深度學習”能力則決定了智能機器人不僅僅是承載人類思維的工具,而是能夠產生自我意識并具備相當認知彈性的個體。行為理性方面,智能機器人以最大限度實現某一特定目標為宗旨,兼顧研發人事前輸入的人類社會的倫理道德、法律規范等行為守則,選擇出最優的實施方案并予以執行,放棄不利于實現特定目標或違反行為守則的方案。可見,智能機器人能夠以與人類相當甚至超越人類的認知能力準確預測、權衡其實現某行動將產生的后果,在人類倫理道德、法律規范等行為守則的約束下選擇最優的實施方案。智能機器人對行為的精準控制僅依靠算法,免受人類欲望、情緒的控制,這決定了其控制能力能夠與人類相當甚至超越部分人類。

總而言之,人工智能時代下智能機器人能夠具備與人類相當甚至超越人類的辨認能力和識別能力,依據刑法的規定應當將其作為刑事責任主體。確認智能機器人的刑事責任主體地位,不僅符合刑法中的“罪責自負原則”,還能有效規制智能機器人的犯罪行為,做好未來社會的風險防控,讓人工智能技術真正造福而不是毀滅人類社會。

關鍵字:智能機

本文摘自:正義網

x 人工智能機器人能否成為刑事責任的主體 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

人工智能機器人能否成為刑事責任的主體

責任編輯:zsheng |來源:企業網D1Net  2018-09-12 20:57:10 本文摘自:正義網

人工智能,是當前全球的熱點話題,亦是我國國家戰略布局的重要組成部分。智能機器人是典型的人工智能實體之一,其主要通過傳感器、數據等與外界進行交流,是具備“深度學習”及自主決策能力,能夠隨著環境變化自我調節、適應的有形實體。隨著人工智能技術的迅速發展,智能機器人的運用范圍已遍及醫療、交通、制造、軍事、教育等領域,“AlphaGo”、自動駕駛汽車、智能醫療機器人等智能機器人的出現顛覆了人類對于機器人的傳統認知。

然而,智能機器人在為人類提供便利的同時,其致人損害事件也時有發生。2007年,美國食品藥品監督管理局就曾收到指控醫療外科手術機器人導致病人遭受燒傷、切割傷與感染的投訴,數量多達200余次,其中包括89例致人死亡的事故;2015年,德國曾發生工人被工業機器人傷害致死的事故;2018年3月20日,在美國發生優步無人駕駛汽車撞人致死的交通事故,這是首例無人駕駛汽車致人死亡事故;等等。隨著智能機器人各項技術的日益成熟,其運用必然更加廣泛,類似的智能機器人侵害人類人身、財產的事例還會增多,智能機器人實施嚴重危害社會的行為將會直接威脅人類的生存。

那么,智能機器人實施犯罪行為應當如何歸責呢?有學者提出,智能機器人是一種高科技產品,僅是被人類使用的工具,智能機器人實施嚴重危害社會行為的刑事責任應當根據案件情況由研發者、生產者或使用者承擔。然而,無條件要求研發者、生產者承擔智能機器人實施犯罪行為的刑事責任,將過分加重其研發風險及成本。人工智能技術發展迅速且尚存在未知難題,智能機器人的算法程序、決策路徑等對于研發者、生產者來說仍具有一定未知性。研發者、生產者在研發、生產時如果完全不可能預見智能機器人的缺陷,刑法要求其承擔刑事責任似乎并不恰當。同時,智能機器人的“深度學習”及自主決策能力決定了使用者并不能完全預見其決策及行為,智能機器人在使用者無過失的情況下正常運行并自主決策實施嚴重危害社會的行為,此情況下要求使用者承擔刑事責任亦不具備合理性,與刑法中的“罪責自負原則”相悖。如此看來,如果智能機器人不享有刑事責任主體地位,那么在生產者、研發者、使用者均無過失而智能機器人依據自主決策實施犯罪行為的情況下,將面臨沒有刑事責任主體承擔刑事責任的窘境。倘若將此類智能機器人嚴重危害社會行為全部作為意外事件處理,則可能對人類社會安全造成重大隱患。因此,人工智能時代下有必要確認智能機器人的刑事責任主體地位。

從我國刑法規定來看,刑事責任主體須具備刑事責任能力,而行為人的刑事責任能力則通過行為人是否具備“理性”進行判斷。“理性”包括“認知理性”與“行為理性”兩個方面,通俗來說就是行為人對其危害行為的辨認能力和控制能力。“認知理性”是特定主體以感性認知為基礎,運用歸納、辯證、演繹等方法從復雜的事物中辨識、提煉本質,透過表象揭露本質的思維過程;“行為理性”則是特定主體在面臨自身欲望或要求時,運用已有知識全面地預測、權衡采取滿足自身欲望或要求行動的有利及不利后果,在充分衡量利弊后根據趨利避害的原則決定其最終將要從事行為的思維過程。我國刑法將年齡和精神狀況作為影響和決定行為人刑事責任能力的兩個因素。一般而言,人類從幼兒到成年的辨認和控制能力將逐漸變強,而精神狀況正常的行為人比精神失常的行為人具備更強的辨認和控制能力。

智能機器人刑事責任能力的認定同樣應以其是否具備“理性”作為基本依據,具體應從智能機器人“理性”的來源、智能機器人可能具備的“理性”水平兩個方面進行判斷。

其一,智能機器人的“理性”來源于人類,是人類認知理性與行為理性的延伸。人類思維、人類行為、理性思維及理性行為是界定人工智能的四大基本標準,模擬人類思維及人類行為是人工智能的基礎。一方面,智能機器人本身就承載著研發者的知識、規則、邏輯與倫理等,而其擴展認知的“深度學習”行為也是以人類社會的信息、數據為對象,并遵循研發者設定的學習目標與范圍;另一方面,人工智能具備在最大限度實現某一特定目標時確定從事或不從事某些行為的理性,而智能機器人的行為控制能力主要受研發人事前擬定的算法及程序控制,研發人在擬定算法和程序時主要以人類的行為控制作為參照,同時將人類社會的倫理道德、法律等規范作為行為守則。

其二,智能機器人具備與人類相當甚至超越人類的認知理性及行為理性。認知理性方面,智能機器人的運算邏輯是知識、信息與規則的高度統一,人類社會的知識、經驗、法律、道德等均在智能機器人內部轉為海量數據,其對自身行為社會危害性的辨認能力與人類相當甚至超越部分人類。“深度學習”能力則決定了智能機器人不僅僅是承載人類思維的工具,而是能夠產生自我意識并具備相當認知彈性的個體。行為理性方面,智能機器人以最大限度實現某一特定目標為宗旨,兼顧研發人事前輸入的人類社會的倫理道德、法律規范等行為守則,選擇出最優的實施方案并予以執行,放棄不利于實現特定目標或違反行為守則的方案。可見,智能機器人能夠以與人類相當甚至超越人類的認知能力準確預測、權衡其實現某行動將產生的后果,在人類倫理道德、法律規范等行為守則的約束下選擇最優的實施方案。智能機器人對行為的精準控制僅依靠算法,免受人類欲望、情緒的控制,這決定了其控制能力能夠與人類相當甚至超越部分人類。

總而言之,人工智能時代下智能機器人能夠具備與人類相當甚至超越人類的辨認能力和識別能力,依據刑法的規定應當將其作為刑事責任主體。確認智能機器人的刑事責任主體地位,不僅符合刑法中的“罪責自負原則”,還能有效規制智能機器人的犯罪行為,做好未來社會的風險防控,讓人工智能技術真正造福而不是毀滅人類社會。

關鍵字:智能機

本文摘自:正義網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 温宿县| 新余市| 五大连池市| 阿克苏市| 张掖市| 酉阳| 卓尼县| 玛曲县| 沧州市| 大荔县| 河南省| 密山市| 宁强县| 金山区| 瓮安县| 安溪县| 丽江市| 搜索| 稷山县| 修水县| 始兴县| 紫阳县| 乌鲁木齐市| 正阳县| 民县| 磐石市| 安新县| 浪卡子县| 大竹县| 遂昌县| 正安县| 横峰县| 黄大仙区| 岳池县| 灯塔市| 陆河县| 旬阳县| 旬阳县| 岳普湖县| 刚察县| 包头市|