精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業(yè)動態(tài) → 正文

人工智能必須培養(yǎng)良知:限制可能潛入數據驅動決策的無意識偏見

責任編輯:cres 作者:Jonathan Alboum |來源:企業(yè)網D1Net  2019-09-24 11:15:11 原創(chuàng)文章 企業(yè)網D1Net

在好萊塢的電影中,有很多關于人工智能(AI)在未來世界發(fā)生的故事。可以肯定地說,這個未來不會很快到來——雖然人工智能具有很多功能和能力,但人類的創(chuàng)造力和知識能力還有待匹配。這意味著做出的重大決策仍然掌握在人類的手中。
 
在當今世界,人工智能可以選擇求職面試的應聘者,并決定誰有資格獲得工作職位,并且可以為患者進行診斷。而在這些情況下采用人工智能取代人類,在速度和效率方面取得了長足的進步。
 
甚至有人認為,人工智能可以在未來幾年內取代30%的勞動力。但是,擁有強大的力量也會有巨大的責任。為了確保獲得最佳結果,需要開發(fā)可以更公平分享這些好處的人工智能。
 
事實上,人類可以與新興技術實現共生發(fā)展,雖然這意味著人工智能可以從人類身上得到最好的結果,但它也可能導致最壞的結果,因為人工智能也納入了一些人們最糟糕的惡習。如果現在不采取必要的措施,無意識的偏見已經是社會最大的挑戰(zhàn)之一,這可能會一直持續(xù),甚至成為根深蒂固的結構性偏見。
 
數據可以告訴人們很多信息,但不會告訴一切。人們最不想看到的是可以評判自己的世界,不是關注的能力或潛力,而是留下的數據線索。很明顯,要想讓人工智能成為一支良好的力量,它需要針對其設定任務和公平性進行優(yōu)化。
 
無意識的偏見是一個數據問題
 
“垃圾輸入,垃圾輸出”這個短語在軟件開發(fā)行業(yè)中是一個眾所周知的格言,并且有著充分的理由。盡管人工智能已經變得如此復雜和強大,但它仍然是為執(zhí)行特定任務而設計和訓練的一系列算法。人工智能完全依賴于為其發(fā)展提供的數據。
 
它只能分析所擁有的數據,并試圖從中獲得最佳結果。在行業(yè)人士看來,糟糕的決定實際上是從一組糟糕的數據中做出的最佳決策。不過,這并沒有降低問題的嚴重性。
 
像微軟公司的Tay chatter bot或Yandex公司的Alice虛擬助理這樣的案例實驗很好地展示了當自學習解決方案輸入錯誤數據時會發(fā)生什么。在這兩種情況下,人們都期望公開、持續(xù)的人際互動將有助于解決方案發(fā)展出令人信服的個性。不幸的是,與一連串進攻性的接觸創(chuàng)造了一種系統(tǒng),這種人工智能系統(tǒng)學會習慣性地攻擊。
 
然而,當人工智能做出的決定開始影響人們的生活時,其后果可能會嚴重得多。在未來決策由數據驅動的情況下,人們必須確保數據集中的少數群體不會被剝奪應該獲得的權利。
 
例如一種面部識別算法,該算法只使用淺膚色模型的圖像進行訓練。當人工智能算法遇到膚色較深的用戶時,它可能會錯誤識別,甚至根本無法識別他們。
 
如果這項人工智能面部識別技術成為招聘或薪酬體系的基礎,想象一下會產生什么樣的影響。通過這種方式,某些群體可能處于不利地位,會有更糟糕的用戶體驗,甚至根本無法獲得服務。這種歧視可能不是故意的,但其影響同樣具有破壞性。
 
無意識的人工智能偏見從根本上來說是一個數據問題。如果沒有一個包含多樣、全面數據的大型數據庫,未來的人工智能就有可能在沒有完整背景的情況下自動創(chuàng)造出社會的贏家和輸家。因此,組織采購最大和最廣泛的數據集至關重要。
 
當然,他們還需要確保他們的人工智能解決方案能夠有效地使用所有這些數據。這意味著強大的數據管理工具和政策,確保數據被分類、整合、簡化,以供人工智能使用。如果企業(yè)缺乏完善的基礎設施和治理,那么收集和存儲所有這些數據是沒有意義的。
 
數據多樣性
 
解決方案并不像越來越多地收集數據那么簡單。僅僅因為企業(yè)要從比其他公司擁有更多的數據中提取數據,并不意味著數據集的質量更高,也不會產生更公平的結果。
 
例如,工程部門的人力資源部門可能有大量的歷史數據可供參考,但如果該部門歷史上一直由男性員工主導,那么女性應聘者可能很難被人工智能算法視為理想候選人。
 
要解決人工智能中的無意識偏見,最好的辦法就是意識到這些。很多公司將人工智能視為輸入和輸出的黑盒解決方案,但要確保算法的公平性,就需要深入了解解決方案的工作原理及其與數據的交互方式。
 
在設計階段,企業(yè)需要清楚地了解想要避免的結果以及想要實現的結果。然后將該理由應用于人工智能將訓練的數據集,確保所有性別、社會和種族群體的公平代表性。
 
企業(yè)如何決定什么是“公平”這是一個更大、更微妙的話題,甚至可能解決人工智能中的偏見。道德標準因企業(yè)而異,因此企業(yè)領導及其員工應制定一個他們能達成一致,并進而影響其解決方案的道德框架。然而,透明度是關鍵——任何組織都不應害怕向公眾或其員工解釋這些決定是如何達成的,或是如何實施的。
 
自上而下的方法并不是一個最好的方法。對一個人來說公平的東西對另一個人來說可能是有問題的,或者看起來是錯誤的。創(chuàng)建共識的一個好方法是建立一個多元化委員會,由來自企業(yè)的利益相關者組成。而多元化委員會的決定可以轉化為人工智能解決方案和支持它的數據集。
 
限制偏見影響
 
每個人都會被無意識的偏見所困擾,人們可能很難承認這一點,甚至也沒有意識到這些偏見。要確保未來發(fā)展的人工智能中沒有這種偏見,最好的方法是首先承認這種偏見的存在。
 
然后,人們可以制定減少和限制偏見影響的策略,并確保不將其傳遞給人工智能技術。同樣,對于如何培養(yǎng)和發(fā)展人工智能,人們也應該進行培訓和發(fā)展。

關鍵字:人工智能

原創(chuàng)文章 企業(yè)網D1Net

x 人工智能必須培養(yǎng)良知:限制可能潛入數據驅動決策的無意識偏見 掃一掃
分享本文到朋友圈
當前位置:人工智能行業(yè)動態(tài) → 正文

人工智能必須培養(yǎng)良知:限制可能潛入數據驅動決策的無意識偏見

責任編輯:cres 作者:Jonathan Alboum |來源:企業(yè)網D1Net  2019-09-24 11:15:11 原創(chuàng)文章 企業(yè)網D1Net

在好萊塢的電影中,有很多關于人工智能(AI)在未來世界發(fā)生的故事。可以肯定地說,這個未來不會很快到來——雖然人工智能具有很多功能和能力,但人類的創(chuàng)造力和知識能力還有待匹配。這意味著做出的重大決策仍然掌握在人類的手中。
 
在當今世界,人工智能可以選擇求職面試的應聘者,并決定誰有資格獲得工作職位,并且可以為患者進行診斷。而在這些情況下采用人工智能取代人類,在速度和效率方面取得了長足的進步。
 
甚至有人認為,人工智能可以在未來幾年內取代30%的勞動力。但是,擁有強大的力量也會有巨大的責任。為了確保獲得最佳結果,需要開發(fā)可以更公平分享這些好處的人工智能。
 
事實上,人類可以與新興技術實現共生發(fā)展,雖然這意味著人工智能可以從人類身上得到最好的結果,但它也可能導致最壞的結果,因為人工智能也納入了一些人們最糟糕的惡習。如果現在不采取必要的措施,無意識的偏見已經是社會最大的挑戰(zhàn)之一,這可能會一直持續(xù),甚至成為根深蒂固的結構性偏見。
 
數據可以告訴人們很多信息,但不會告訴一切。人們最不想看到的是可以評判自己的世界,不是關注的能力或潛力,而是留下的數據線索。很明顯,要想讓人工智能成為一支良好的力量,它需要針對其設定任務和公平性進行優(yōu)化。
 
無意識的偏見是一個數據問題
 
“垃圾輸入,垃圾輸出”這個短語在軟件開發(fā)行業(yè)中是一個眾所周知的格言,并且有著充分的理由。盡管人工智能已經變得如此復雜和強大,但它仍然是為執(zhí)行特定任務而設計和訓練的一系列算法。人工智能完全依賴于為其發(fā)展提供的數據。
 
它只能分析所擁有的數據,并試圖從中獲得最佳結果。在行業(yè)人士看來,糟糕的決定實際上是從一組糟糕的數據中做出的最佳決策。不過,這并沒有降低問題的嚴重性。
 
像微軟公司的Tay chatter bot或Yandex公司的Alice虛擬助理這樣的案例實驗很好地展示了當自學習解決方案輸入錯誤數據時會發(fā)生什么。在這兩種情況下,人們都期望公開、持續(xù)的人際互動將有助于解決方案發(fā)展出令人信服的個性。不幸的是,與一連串進攻性的接觸創(chuàng)造了一種系統(tǒng),這種人工智能系統(tǒng)學會習慣性地攻擊。
 
然而,當人工智能做出的決定開始影響人們的生活時,其后果可能會嚴重得多。在未來決策由數據驅動的情況下,人們必須確保數據集中的少數群體不會被剝奪應該獲得的權利。
 
例如一種面部識別算法,該算法只使用淺膚色模型的圖像進行訓練。當人工智能算法遇到膚色較深的用戶時,它可能會錯誤識別,甚至根本無法識別他們。
 
如果這項人工智能面部識別技術成為招聘或薪酬體系的基礎,想象一下會產生什么樣的影響。通過這種方式,某些群體可能處于不利地位,會有更糟糕的用戶體驗,甚至根本無法獲得服務。這種歧視可能不是故意的,但其影響同樣具有破壞性。
 
無意識的人工智能偏見從根本上來說是一個數據問題。如果沒有一個包含多樣、全面數據的大型數據庫,未來的人工智能就有可能在沒有完整背景的情況下自動創(chuàng)造出社會的贏家和輸家。因此,組織采購最大和最廣泛的數據集至關重要。
 
當然,他們還需要確保他們的人工智能解決方案能夠有效地使用所有這些數據。這意味著強大的數據管理工具和政策,確保數據被分類、整合、簡化,以供人工智能使用。如果企業(yè)缺乏完善的基礎設施和治理,那么收集和存儲所有這些數據是沒有意義的。
 
數據多樣性
 
解決方案并不像越來越多地收集數據那么簡單。僅僅因為企業(yè)要從比其他公司擁有更多的數據中提取數據,并不意味著數據集的質量更高,也不會產生更公平的結果。
 
例如,工程部門的人力資源部門可能有大量的歷史數據可供參考,但如果該部門歷史上一直由男性員工主導,那么女性應聘者可能很難被人工智能算法視為理想候選人。
 
要解決人工智能中的無意識偏見,最好的辦法就是意識到這些。很多公司將人工智能視為輸入和輸出的黑盒解決方案,但要確保算法的公平性,就需要深入了解解決方案的工作原理及其與數據的交互方式。
 
在設計階段,企業(yè)需要清楚地了解想要避免的結果以及想要實現的結果。然后將該理由應用于人工智能將訓練的數據集,確保所有性別、社會和種族群體的公平代表性。
 
企業(yè)如何決定什么是“公平”這是一個更大、更微妙的話題,甚至可能解決人工智能中的偏見。道德標準因企業(yè)而異,因此企業(yè)領導及其員工應制定一個他們能達成一致,并進而影響其解決方案的道德框架。然而,透明度是關鍵——任何組織都不應害怕向公眾或其員工解釋這些決定是如何達成的,或是如何實施的。
 
自上而下的方法并不是一個最好的方法。對一個人來說公平的東西對另一個人來說可能是有問題的,或者看起來是錯誤的。創(chuàng)建共識的一個好方法是建立一個多元化委員會,由來自企業(yè)的利益相關者組成。而多元化委員會的決定可以轉化為人工智能解決方案和支持它的數據集。
 
限制偏見影響
 
每個人都會被無意識的偏見所困擾,人們可能很難承認這一點,甚至也沒有意識到這些偏見。要確保未來發(fā)展的人工智能中沒有這種偏見,最好的方法是首先承認這種偏見的存在。
 
然后,人們可以制定減少和限制偏見影響的策略,并確保不將其傳遞給人工智能技術。同樣,對于如何培養(yǎng)和發(fā)展人工智能,人們也應該進行培訓和發(fā)展。

關鍵字:人工智能

原創(chuàng)文章 企業(yè)網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業(yè)網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 桃园市| 濉溪县| 满洲里市| 娄底市| 商都县| 内江市| 五峰| 芷江| 察隅县| 芦山县| 西平县| 洪泽县| 涿鹿县| 丘北县| 甘肃省| 寿光市| 江孜县| 南城县| 杂多县| 新民市| 通山县| 彰化市| 芜湖县| 郎溪县| 岳阳市| 金川县| 哈巴河县| 民和| 神农架林区| 黑山县| 普兰店市| 疏附县| 万盛区| 高州市| 龙南县| 成安县| 昭觉县| 宝坻区| 高阳县| 原平市| 阿拉善盟|