精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業(yè)動態(tài) → 正文

AI的道德挑戰(zhàn)

責任編輯:cres 作者:Mark MacCarthy |來源:企業(yè)網(wǎng)D1Net  2018-05-29 10:43:38 原創(chuàng)文章 企業(yè)網(wǎng)D1Net

公司在開發(fā)和部署AI應(yīng)用程序時需要考慮一些道德方面的問題。
 
機器學習算法無處不在。除了Facebook和Google之外。其他公司也正在利用它們提供個性化的教育服務(wù)和先進的商業(yè)情報服務(wù),來對抗癌癥和檢測假冒商品。從農(nóng)業(yè)到制藥。從AI控制的自主車輛到臨床決策輔助軟件。
 
這項技術(shù)將使我們集體富裕,變得更有能力來提供人類福利,人權(quán),人類正義和培養(yǎng)我們在社區(qū)生活中所需的美德。我們應(yīng)該歡迎它,盡我們的所能促進它。
 
但與任何新技術(shù)一樣,同時我們也面臨著一些道德挑戰(zhàn)。包括新技術(shù)是否公平透明?這些好處是否能讓全民共享?他們會加強現(xiàn)有的不平等嗎?
 
開發(fā)和使用AI系統(tǒng)的組織需要遵循一定的道德準則來指導他們面對已經(jīng)存在于我們之間的和未來有可能出現(xiàn)的挑戰(zhàn)。
 
去年,我所在的行業(yè)協(xié)會 - 軟件和信息行業(yè)協(xié)會發(fā)布了一個關(guān)于人工智能和數(shù)據(jù)分析道德準則的問題簡報,以應(yīng)對這些挑戰(zhàn)。它依據(jù)古典的道德倫理權(quán)利,福利和傳統(tǒng)美德,敦促組織仔細檢查他們的數(shù)據(jù)實踐。
 
公司需要來恢復其在商業(yè)道德方面的思考能力,特別是在有關(guān)收集和使用信息的決策方面。這些原則是一個切實可行的指南。
 
SIIA不是唯一一個試圖將道德考量引入AI和數(shù)據(jù)分析領(lǐng)域的實體。計算機科學小組也秉持著公平,問責和透明的原則為機器學習(FAT / ML)起草了自己的規(guī)范。在Asilomar召開會議的另一組計算機科學家則起草了更廣泛的規(guī)范。IEEE提出了與設(shè)計中的道德價值相關(guān)的原則。ACM最近發(fā)布了一套旨在能夠確保大眾公平使用AI算法的原則。信息問責基金會在其關(guān)于人工智能,道德和增強數(shù)據(jù)管理的報告中制定了一套非常有用的規(guī)范。
 
政府也為AI倫理問題努力著
 
2017年10月的經(jīng)合組織(OECD)會議上,針對人工智能的一些不同的倫理方法,在智能機器、智能政策的會議上被公開。日本人在2016年G7會議上和意大利人在2017年G&會上提出了對AI的道德規(guī)則的需求。最近的G7會議于2018年3月28日結(jié)束,期間發(fā)表了一份關(guān)于人工智能的聲明,鼓勵人們研究“審查人工智能的倫理問題”。美國政府也在最近宣布將“與我們的盟友合作”以促進對“人工智能技術(shù)”的信任。
 
盟委員會在其最近發(fā)布的歐洲人工智能通訊中,提出在人工智能聯(lián)盟內(nèi)制定“人工智能道德準則”,它來源于歐洲科學和新技術(shù)道德倫理組織發(fā)表的聲明。
 
這都是積極的發(fā)展。但需要注意幾點。抽象的道德聲明只會讓我們止步不前。可行的道德原則需要考慮AI在特定情況下的使用方式。例如,自主武器所涉及的倫理問題與使用人工智能進行累犯評分或就業(yè)篩查所涉及的倫理問題就有很大的不同。這就是為什么SIIA提供了關(guān)于如何將權(quán)利、正義、福利和美德的一般原則應(yīng)用于不同的案例分析來確保算法公平的具體建議。
 
此外,沒有只適用于人工智能,而不適用于其他數(shù)據(jù)分析和預測模式的特殊道德準則。需要在人工智能應(yīng)用的開發(fā)和實施中應(yīng)用和解釋,尊重權(quán)利,促進福利和培養(yǎng)人類美德的道德要求,這需要進行大量艱苦的概念和實踐工作才能做到這一點。但這與為AI尋求獨特的規(guī)范性指導方針并不相同。
 
Elon Musk等一些人認為,必須超越道德標準,才能達到監(jiān)管目的
 
在某些特定的領(lǐng)域里,為了部署技術(shù),有些問題是緊急的,必須要解決。有必要搞清楚自動駕駛汽車的責任,或者在食品和藥物管理局為臨床決策支持系統(tǒng)制定一個監(jiān)管框架。
 
但正如AI沒有特殊的道德原則一樣,也不需要設(shè)置任何單純適用于AI的特殊法規(guī)或法律。AI涵蓋了無限多種分析技術(shù);它根本不是實體企業(yè)。由國家機構(gòu)實施的一般的人工智能管理,應(yīng)該就像擁有一個用于統(tǒng)計分析的監(jiān)管機構(gòu)一樣!
 
2016年人工智能百年研究報告總結(jié)道:“一般來說,對人工智能進行規(guī)范的嘗試是錯誤的,因為沒有AI的明確定義(它不是任何東西),而且風險和需要考慮的因素在不同的領(lǐng)域有很大的不同。”
 
這并不意味著人工智能可以不受管制。目前的法律法規(guī)仍然適用。使用AI的時候,沒有可以免于監(jiān)獄的免費卡。這不是可以違反法律的辯解。公司不能逃避公平貸款或公平住房法的責任,例如,不能因為他們解釋說他們使用了人工智能技術(shù)而可以區(qū)別對待。
 
無論監(jiān)管狀況如何,組織都需要有人來指導他們?nèi)绾芜m應(yīng)在這項技術(shù)付諸實踐時所面臨的諸多道德挑戰(zhàn)。善良,尊重人格,正義和培養(yǎng)美德的準則可以為人工智能和先進的數(shù)據(jù)分析技術(shù)提供路線圖和一些重要的保障。
 
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權(quán)利。

關(guān)鍵字:人工智能AI

原創(chuàng)文章 企業(yè)網(wǎng)D1Net

x AI的道德挑戰(zhàn) 掃一掃
分享本文到朋友圈
當前位置:人工智能行業(yè)動態(tài) → 正文

AI的道德挑戰(zhàn)

責任編輯:cres 作者:Mark MacCarthy |來源:企業(yè)網(wǎng)D1Net  2018-05-29 10:43:38 原創(chuàng)文章 企業(yè)網(wǎng)D1Net

公司在開發(fā)和部署AI應(yīng)用程序時需要考慮一些道德方面的問題。
 
機器學習算法無處不在。除了Facebook和Google之外。其他公司也正在利用它們提供個性化的教育服務(wù)和先進的商業(yè)情報服務(wù),來對抗癌癥和檢測假冒商品。從農(nóng)業(yè)到制藥。從AI控制的自主車輛到臨床決策輔助軟件。
 
這項技術(shù)將使我們集體富裕,變得更有能力來提供人類福利,人權(quán),人類正義和培養(yǎng)我們在社區(qū)生活中所需的美德。我們應(yīng)該歡迎它,盡我們的所能促進它。
 
但與任何新技術(shù)一樣,同時我們也面臨著一些道德挑戰(zhàn)。包括新技術(shù)是否公平透明?這些好處是否能讓全民共享?他們會加強現(xiàn)有的不平等嗎?
 
開發(fā)和使用AI系統(tǒng)的組織需要遵循一定的道德準則來指導他們面對已經(jīng)存在于我們之間的和未來有可能出現(xiàn)的挑戰(zhàn)。
 
去年,我所在的行業(yè)協(xié)會 - 軟件和信息行業(yè)協(xié)會發(fā)布了一個關(guān)于人工智能和數(shù)據(jù)分析道德準則的問題簡報,以應(yīng)對這些挑戰(zhàn)。它依據(jù)古典的道德倫理權(quán)利,福利和傳統(tǒng)美德,敦促組織仔細檢查他們的數(shù)據(jù)實踐。
 
公司需要來恢復其在商業(yè)道德方面的思考能力,特別是在有關(guān)收集和使用信息的決策方面。這些原則是一個切實可行的指南。
 
SIIA不是唯一一個試圖將道德考量引入AI和數(shù)據(jù)分析領(lǐng)域的實體。計算機科學小組也秉持著公平,問責和透明的原則為機器學習(FAT / ML)起草了自己的規(guī)范。在Asilomar召開會議的另一組計算機科學家則起草了更廣泛的規(guī)范。IEEE提出了與設(shè)計中的道德價值相關(guān)的原則。ACM最近發(fā)布了一套旨在能夠確保大眾公平使用AI算法的原則。信息問責基金會在其關(guān)于人工智能,道德和增強數(shù)據(jù)管理的報告中制定了一套非常有用的規(guī)范。
 
政府也為AI倫理問題努力著
 
2017年10月的經(jīng)合組織(OECD)會議上,針對人工智能的一些不同的倫理方法,在智能機器、智能政策的會議上被公開。日本人在2016年G7會議上和意大利人在2017年G&會上提出了對AI的道德規(guī)則的需求。最近的G7會議于2018年3月28日結(jié)束,期間發(fā)表了一份關(guān)于人工智能的聲明,鼓勵人們研究“審查人工智能的倫理問題”。美國政府也在最近宣布將“與我們的盟友合作”以促進對“人工智能技術(shù)”的信任。
 
盟委員會在其最近發(fā)布的歐洲人工智能通訊中,提出在人工智能聯(lián)盟內(nèi)制定“人工智能道德準則”,它來源于歐洲科學和新技術(shù)道德倫理組織發(fā)表的聲明。
 
這都是積極的發(fā)展。但需要注意幾點。抽象的道德聲明只會讓我們止步不前。可行的道德原則需要考慮AI在特定情況下的使用方式。例如,自主武器所涉及的倫理問題與使用人工智能進行累犯評分或就業(yè)篩查所涉及的倫理問題就有很大的不同。這就是為什么SIIA提供了關(guān)于如何將權(quán)利、正義、福利和美德的一般原則應(yīng)用于不同的案例分析來確保算法公平的具體建議。
 
此外,沒有只適用于人工智能,而不適用于其他數(shù)據(jù)分析和預測模式的特殊道德準則。需要在人工智能應(yīng)用的開發(fā)和實施中應(yīng)用和解釋,尊重權(quán)利,促進福利和培養(yǎng)人類美德的道德要求,這需要進行大量艱苦的概念和實踐工作才能做到這一點。但這與為AI尋求獨特的規(guī)范性指導方針并不相同。
 
Elon Musk等一些人認為,必須超越道德標準,才能達到監(jiān)管目的
 
在某些特定的領(lǐng)域里,為了部署技術(shù),有些問題是緊急的,必須要解決。有必要搞清楚自動駕駛汽車的責任,或者在食品和藥物管理局為臨床決策支持系統(tǒng)制定一個監(jiān)管框架。
 
但正如AI沒有特殊的道德原則一樣,也不需要設(shè)置任何單純適用于AI的特殊法規(guī)或法律。AI涵蓋了無限多種分析技術(shù);它根本不是實體企業(yè)。由國家機構(gòu)實施的一般的人工智能管理,應(yīng)該就像擁有一個用于統(tǒng)計分析的監(jiān)管機構(gòu)一樣!
 
2016年人工智能百年研究報告總結(jié)道:“一般來說,對人工智能進行規(guī)范的嘗試是錯誤的,因為沒有AI的明確定義(它不是任何東西),而且風險和需要考慮的因素在不同的領(lǐng)域有很大的不同。”
 
這并不意味著人工智能可以不受管制。目前的法律法規(guī)仍然適用。使用AI的時候,沒有可以免于監(jiān)獄的免費卡。這不是可以違反法律的辯解。公司不能逃避公平貸款或公平住房法的責任,例如,不能因為他們解釋說他們使用了人工智能技術(shù)而可以區(qū)別對待。
 
無論監(jiān)管狀況如何,組織都需要有人來指導他們?nèi)绾芜m應(yīng)在這項技術(shù)付諸實踐時所面臨的諸多道德挑戰(zhàn)。善良,尊重人格,正義和培養(yǎng)美德的準則可以為人工智能和先進的數(shù)據(jù)分析技術(shù)提供路線圖和一些重要的保障。
 
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權(quán)利。

關(guān)鍵字:人工智能AI

原創(chuàng)文章 企業(yè)網(wǎng)D1Net

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號-6 京公網(wǎng)安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 兴文县| 乐清市| 苍梧县| 长海县| 吉林省| 夏河县| 饶阳县| 辽源市| 偃师市| 海南省| 永善县| 湖口县| 广水市| 大渡口区| 井研县| 孟津县| 河曲县| 湘西| 禹州市| 武安市| 周至县| 山东| 绥芬河市| 永仁县| 九龙城区| 方山县| 竹山县| 清涧县| 丹棱县| 郁南县| 什邡市| 民权县| 青阳县| 卓资县| 泾川县| 龙口市| 陇川县| 平陆县| 开封县| 龙川县| 巴里|