精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

提高人工智能道德水平的9個步驟

責任編輯:cres 作者:Cynthia Harvey |來源:企業網D1Net  2019-05-29 09:33:54 原創文章 企業網D1Net

涉及人工智能應用的法律目前還很少,這使得很多組織面臨各方面的壓力,而為了讓公眾放心,人工智能應用必須是合乎道德和公平的。
 
隨著人工智能的應用越來越普遍,越來越多的IT領導者開始關注人工智能的道德含義。事實上,由SnapLogic公司贊助,由Vanson Bourne公司進行的2019年調查報告發現,在接受調查的1000名美國和英國IT決策者中, 94%的受訪者認為人們應該更加關注人工智能開發中的企業責任和道德規范。
 
人們為此感到擔憂是有理由的。一些著名的科技公司已經卷入相關丑聞,因為他們創建的人工智能系統沒有按預期行事。例如,在2015年,很多用戶抱怨谷歌公司的圖像識別軟件將黑人標記為“大猩猩”,雖然這家科技巨頭承諾要解決這個問題,但在三年之后,谷歌公司提供的唯一解決方案就是取消人工智能識別大猩猩的能力。而微軟公司的基于人工智能的Twitterbot-tay上在使用了幾個小時后,就變成了種族主義者,這讓微軟公司不得不取消了這個業務。
 
此外據悉,舊金山日前成為美國第一個禁止市場機構使用面部識別軟件的主要城市,其部分原因是該技術存在潛在的偏見。幾個規模較小的城市已經通過或正在考慮類似的禁令。
 
雖然有關人工智能失誤的報道屢見不鮮,但許多人擔心,在沒有公眾知識的情況下,更普遍、更陰險的人工智能犯罪可能發生在幕后。客戶可能永遠不會知道他們是否因為道德上可疑的人工智能算法而被拒絕貸款或面臨欺詐嫌疑。
 
紐約大學的AI Now研究所和美國南部浸禮會派這樣的組織都在呼吁開發人工智能的公司讓其技術變得更加透明,并同意遵守相應的道德原則。作為回應,包括谷歌公司和微軟公司在內的一些企業已經發布了有關人工智能使用的內部指南。
 
然而,許多人認為這還遠遠不夠。相反,他們希望政府機構參與并頒布法規。在Vanson Bourne公司的研究中,87%的商業IT領導者表示應該對人工智能開發進行監管。
 
IT領導者具有這種愿望的部分原因是,在缺乏相關法律的情況下,企業沒有辦法知道他們是否做了足夠的工作來確保其開發的人工智能是合乎道德的。監管法律可能使他們有能力向客戶保證人工智能的應用,因為可以表示他們遵守了所有相關法律。如果沒有這些法律,獲得和保持客戶信任可能會更加困難。
 
但即使沒有監管法律,企業也可以而且應該采取措施確保他們使用人工智能是道德的。以下提供了企業可以改善其在人工智能方面的道德立場采取的9項措施:
 
1.遵守法規
 
組織至少需要確保其人工智能應用程序符合數據隱私法規。大多數人工智能軟件(尤其是機器學習)都依賴于大量的數據來進行操作,企業有責任確保他們對這些數據的處理符合相關法律。在美國,組織可能需要遵守健康保險便攜性和責任法案(HIPAA)、兒童在線隱私保護法案(COPPA)或其他聯邦或州法律。
 
如果組織在歐洲擁有客戶或員工,他們還必須遵守歐盟的通用數據保護法規(GDPR)。除其他事項外,這項全面的立法要求組織盡可能以最短的時間存儲數據,并為個人提供查看和刪除其個人數據的方法。就人工智能而言,最重要的是,GDPR法規還指出,“個人不應僅僅依據自動處理(例如算法)做出決定,而且具有法律約束力或對其產生重大影響。”
 
2. 遵守數據科學最佳實踐
 
除了遵守政府部門的規定外,組織還應該提供數據科學最佳實踐。Forrester公司在其名為“人工智能的倫理:如何避免有害的偏見和歧視” 報告中建議,“為了防止模型中的算法偏見,組織需要堅持數據挖掘的基本原則,確保組織培訓數據代表其計劃使用模型的人群。”
 
還有一些人建議,數據科學家需要反復測試和驗證他們的模型,并保持跟蹤數據沿襲的方法。雖然很少有企業高管了解機器學習的復雜性,但他們有義務確保他們的數據科學家遵守行業最佳實踐。
 
3.安全設計
 
幾十年來,科幻作家一直在警告人工智能可能具有世界末日的危險。如今人工智能變得越來越普遍,重要的是不要忽視人工智能傷害人類的可能性,因為它不只是在書籍和電影中出現的事物。自動駕駛汽車和基于人工智能的武器系統等相關應用顯然會影響人類的安全,設計師應確保這些系統盡可能安全。雖然其他機器學習系統可能不會直接影響人類的人身安全,但它們可能會對他們的隱私和在線安全產生重大影響。
 
4.使人工智能技術更加透明
 
企業在人工智能道德方面可以采取的最重要步驟之一是確保他們完全理解使用的任何人工智能系統的運作。人工智能供應商Kyndi公司首席執行官Ryan Welsh在一次采訪中指出,“要發揮人工智能的全部潛力,信任至關重要。而信任來自人們的理解,并且能夠證明系統結論和結果背后的推理。人工智能不可能是一個黑盒,因為它經常出現。要想讓人工智能蓬勃發展,就必須更加透明。”
 
AI Now研究所表示,“為了實現有意義的問責制,我們需要更好地理解和跟蹤人工智能系統的組成部分及其所依賴的完整供應鏈:這意味著要考慮培訓數據、測試數據、模型的來源和使用、產品生命周期中的應用程序接口(API)和其他基礎設施組件。”
 
5.清理數據
 
機器學習系統的行業與它們所依賴的數據一樣好。對于許多組織而言,數據質量仍然是一個主要問題。在最壞的情況下,糟糕的數據可能導致組織做出不準確甚至道德上受到損害的決策。
 
另一方面,擁有準確、最新的數據會增加人工智能應用程序產生積極經濟利益的可能性。Information Builders數據管理卓越中心的國際主管James Cotton在一次采訪中表示,“當分析應用于管理良好的數據時,其回報要大得多。可以清楚地了解組織擁有什么,來自何處以及如何使用它會帶來更大的回報。“
 
6.檢查模型是否存在偏差跡象
 
數據科學家不僅需要確保他們的數據是干凈的,而且他們還需要確保他們的數據和數據模型不包含任何偏差。這個問題可能會以幾種不同的方式無意中進入到機器學習模型中。
 
首先,組織可能有不完整的訓練數據。例如,如果企業只使用歐洲面孔訓練其面部識別系統,那么當系統難以識別非洲或亞洲面孔時,人們不應對此感到驚訝。
 
其次,許多數據集包括歷史偏差。例如,一些職業(例如護理或工程)在傳統上一直是由性別主導的。如果組織根據這些歷史數據訓練基于人工智能的人力資源系統選擇面試候選人,可能會意外地出現偏見,甚至可能觸犯反歧視法規。
 
7.監控調查結果和反饋
 
而數據科學家通常表示,沒有數據模型是完美的。他們所能期望最好的情況就是隨著時間的推移而改進。這意味著人類需要監控系統來尋找潛在的道德問題。許多已發布人工智能指南的組織表示,所有人工智能技術都需要對人類負責。但一些人卻表示,只是問責是不夠的;人類監管者需要積極跟蹤人工智能的行為和與人類的互動,并在必要時作出調整,以確保人工智能技術不會跨越任何道德界限。
 
8.確保可以撤消人工智能所做的任何決定
 
在相關的說明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開發的人工智能系統從根本上需要是健全的、可評估的、包容、可逆的,這意味需要設計可更改的人工智能系統,而且可能還需要為信貸決策等事項設立人工智能上訴委員會。
 
AI Now研究所進一步指出,““技術工作者的組織和抵制已經成為一種責任和道德決策的力量。技術公司需要保護工人的組織能力、揭發信息的能力,并在他們從事的項目上做出道德選擇。這應包括明確的政策,以適應和保護有責任心的反對者,確保工作人員有權知道他們在做什么,并有能力在沒有報復或懲罰的情況下放棄此類工作。”
 
9.成立人工智能道德咨詢委員會
 
包括谷歌公司在內的多家科技公司已成立人工智能道德咨詢委員會,以幫助指導他們使用人工智能。雖然讓一群局外人監督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會成員而受到批評,有些人對此表示反對。
 
雖然成立人工智能道德委員會可能存在一些問題,但在缺乏監管法規或行業標準的情況下,它們可能是組織說服公眾的最佳機會,即通過沒有既得利益的人員監督人工智能的發展。

關鍵字:人工智能

原創文章 企業網D1Net

x 提高人工智能道德水平的9個步驟 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

提高人工智能道德水平的9個步驟

責任編輯:cres 作者:Cynthia Harvey |來源:企業網D1Net  2019-05-29 09:33:54 原創文章 企業網D1Net

涉及人工智能應用的法律目前還很少,這使得很多組織面臨各方面的壓力,而為了讓公眾放心,人工智能應用必須是合乎道德和公平的。
 
隨著人工智能的應用越來越普遍,越來越多的IT領導者開始關注人工智能的道德含義。事實上,由SnapLogic公司贊助,由Vanson Bourne公司進行的2019年調查報告發現,在接受調查的1000名美國和英國IT決策者中, 94%的受訪者認為人們應該更加關注人工智能開發中的企業責任和道德規范。
 
人們為此感到擔憂是有理由的。一些著名的科技公司已經卷入相關丑聞,因為他們創建的人工智能系統沒有按預期行事。例如,在2015年,很多用戶抱怨谷歌公司的圖像識別軟件將黑人標記為“大猩猩”,雖然這家科技巨頭承諾要解決這個問題,但在三年之后,谷歌公司提供的唯一解決方案就是取消人工智能識別大猩猩的能力。而微軟公司的基于人工智能的Twitterbot-tay上在使用了幾個小時后,就變成了種族主義者,這讓微軟公司不得不取消了這個業務。
 
此外據悉,舊金山日前成為美國第一個禁止市場機構使用面部識別軟件的主要城市,其部分原因是該技術存在潛在的偏見。幾個規模較小的城市已經通過或正在考慮類似的禁令。
 
雖然有關人工智能失誤的報道屢見不鮮,但許多人擔心,在沒有公眾知識的情況下,更普遍、更陰險的人工智能犯罪可能發生在幕后。客戶可能永遠不會知道他們是否因為道德上可疑的人工智能算法而被拒絕貸款或面臨欺詐嫌疑。
 
紐約大學的AI Now研究所和美國南部浸禮會派這樣的組織都在呼吁開發人工智能的公司讓其技術變得更加透明,并同意遵守相應的道德原則。作為回應,包括谷歌公司和微軟公司在內的一些企業已經發布了有關人工智能使用的內部指南。
 
然而,許多人認為這還遠遠不夠。相反,他們希望政府機構參與并頒布法規。在Vanson Bourne公司的研究中,87%的商業IT領導者表示應該對人工智能開發進行監管。
 
IT領導者具有這種愿望的部分原因是,在缺乏相關法律的情況下,企業沒有辦法知道他們是否做了足夠的工作來確保其開發的人工智能是合乎道德的。監管法律可能使他們有能力向客戶保證人工智能的應用,因為可以表示他們遵守了所有相關法律。如果沒有這些法律,獲得和保持客戶信任可能會更加困難。
 
但即使沒有監管法律,企業也可以而且應該采取措施確保他們使用人工智能是道德的。以下提供了企業可以改善其在人工智能方面的道德立場采取的9項措施:
 
1.遵守法規
 
組織至少需要確保其人工智能應用程序符合數據隱私法規。大多數人工智能軟件(尤其是機器學習)都依賴于大量的數據來進行操作,企業有責任確保他們對這些數據的處理符合相關法律。在美國,組織可能需要遵守健康保險便攜性和責任法案(HIPAA)、兒童在線隱私保護法案(COPPA)或其他聯邦或州法律。
 
如果組織在歐洲擁有客戶或員工,他們還必須遵守歐盟的通用數據保護法規(GDPR)。除其他事項外,這項全面的立法要求組織盡可能以最短的時間存儲數據,并為個人提供查看和刪除其個人數據的方法。就人工智能而言,最重要的是,GDPR法規還指出,“個人不應僅僅依據自動處理(例如算法)做出決定,而且具有法律約束力或對其產生重大影響。”
 
2. 遵守數據科學最佳實踐
 
除了遵守政府部門的規定外,組織還應該提供數據科學最佳實踐。Forrester公司在其名為“人工智能的倫理:如何避免有害的偏見和歧視” 報告中建議,“為了防止模型中的算法偏見,組織需要堅持數據挖掘的基本原則,確保組織培訓數據代表其計劃使用模型的人群。”
 
還有一些人建議,數據科學家需要反復測試和驗證他們的模型,并保持跟蹤數據沿襲的方法。雖然很少有企業高管了解機器學習的復雜性,但他們有義務確保他們的數據科學家遵守行業最佳實踐。
 
3.安全設計
 
幾十年來,科幻作家一直在警告人工智能可能具有世界末日的危險。如今人工智能變得越來越普遍,重要的是不要忽視人工智能傷害人類的可能性,因為它不只是在書籍和電影中出現的事物。自動駕駛汽車和基于人工智能的武器系統等相關應用顯然會影響人類的安全,設計師應確保這些系統盡可能安全。雖然其他機器學習系統可能不會直接影響人類的人身安全,但它們可能會對他們的隱私和在線安全產生重大影響。
 
4.使人工智能技術更加透明
 
企業在人工智能道德方面可以采取的最重要步驟之一是確保他們完全理解使用的任何人工智能系統的運作。人工智能供應商Kyndi公司首席執行官Ryan Welsh在一次采訪中指出,“要發揮人工智能的全部潛力,信任至關重要。而信任來自人們的理解,并且能夠證明系統結論和結果背后的推理。人工智能不可能是一個黑盒,因為它經常出現。要想讓人工智能蓬勃發展,就必須更加透明。”
 
AI Now研究所表示,“為了實現有意義的問責制,我們需要更好地理解和跟蹤人工智能系統的組成部分及其所依賴的完整供應鏈:這意味著要考慮培訓數據、測試數據、模型的來源和使用、產品生命周期中的應用程序接口(API)和其他基礎設施組件。”
 
5.清理數據
 
機器學習系統的行業與它們所依賴的數據一樣好。對于許多組織而言,數據質量仍然是一個主要問題。在最壞的情況下,糟糕的數據可能導致組織做出不準確甚至道德上受到損害的決策。
 
另一方面,擁有準確、最新的數據會增加人工智能應用程序產生積極經濟利益的可能性。Information Builders數據管理卓越中心的國際主管James Cotton在一次采訪中表示,“當分析應用于管理良好的數據時,其回報要大得多。可以清楚地了解組織擁有什么,來自何處以及如何使用它會帶來更大的回報。“
 
6.檢查模型是否存在偏差跡象
 
數據科學家不僅需要確保他們的數據是干凈的,而且他們還需要確保他們的數據和數據模型不包含任何偏差。這個問題可能會以幾種不同的方式無意中進入到機器學習模型中。
 
首先,組織可能有不完整的訓練數據。例如,如果企業只使用歐洲面孔訓練其面部識別系統,那么當系統難以識別非洲或亞洲面孔時,人們不應對此感到驚訝。
 
其次,許多數據集包括歷史偏差。例如,一些職業(例如護理或工程)在傳統上一直是由性別主導的。如果組織根據這些歷史數據訓練基于人工智能的人力資源系統選擇面試候選人,可能會意外地出現偏見,甚至可能觸犯反歧視法規。
 
7.監控調查結果和反饋
 
而數據科學家通常表示,沒有數據模型是完美的。他們所能期望最好的情況就是隨著時間的推移而改進。這意味著人類需要監控系統來尋找潛在的道德問題。許多已發布人工智能指南的組織表示,所有人工智能技術都需要對人類負責。但一些人卻表示,只是問責是不夠的;人類監管者需要積極跟蹤人工智能的行為和與人類的互動,并在必要時作出調整,以確保人工智能技術不會跨越任何道德界限。
 
8.確保可以撤消人工智能所做的任何決定
 
在相關的說明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開發的人工智能系統從根本上需要是健全的、可評估的、包容、可逆的,這意味需要設計可更改的人工智能系統,而且可能還需要為信貸決策等事項設立人工智能上訴委員會。
 
AI Now研究所進一步指出,““技術工作者的組織和抵制已經成為一種責任和道德決策的力量。技術公司需要保護工人的組織能力、揭發信息的能力,并在他們從事的項目上做出道德選擇。這應包括明確的政策,以適應和保護有責任心的反對者,確保工作人員有權知道他們在做什么,并有能力在沒有報復或懲罰的情況下放棄此類工作。”
 
9.成立人工智能道德咨詢委員會
 
包括谷歌公司在內的多家科技公司已成立人工智能道德咨詢委員會,以幫助指導他們使用人工智能。雖然讓一群局外人監督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會成員而受到批評,有些人對此表示反對。
 
雖然成立人工智能道德委員會可能存在一些問題,但在缺乏監管法規或行業標準的情況下,它們可能是組織說服公眾的最佳機會,即通過沒有既得利益的人員監督人工智能的發展。

關鍵字:人工智能

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 福鼎市| 大新县| 广丰县| 瓦房店市| 大埔县| 页游| 盖州市| 将乐县| 五大连池市| 鹿泉市| 阿图什市| 九江县| 长兴县| 屯留县| 阳新县| 双辽市| 家居| 叶城县| 泌阳县| 子洲县| 长宁区| 石屏县| 永嘉县| 金平| 仪征市| 广丰县| 雷州市| 盐源县| 色达县| 荆门市| 普陀区| 江都市| 兴化市| 外汇| 梅河口市| 阳原县| 鸡东县| 宣城市| 青川县| 舟曲县| 陵川县|