精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

人工智能該如何遠離偏見與歧視

責任編輯:zsheng

2018-10-15 22:22:43

摘自:文匯報

越來越多的高技術產業和數字服務都以人工智能和機器學習為基礎。但是,我們必須看到:人類社會存在的偏見和歧視也會被復制到人工智能系統中。因此,我們應對人工智能的整個程序進行監管,包括信息輸入輸出、數據、算法、模型等,以克服偏見與歧視在人工智能領域的延續。

越來越多的高技術產業和數字服務都以人工智能和機器學習為基礎。但是,我們必須看到:人類社會存在的偏見和歧視也會被復制到人工智能系統中。因此,我們應對人工智能的整個程序進行監管,包括信息輸入輸出、數據、算法、模型等,以克服偏見與歧視在人工智能領域的延續。

在人工智能問題上,有個所謂 “黑盒子”的問題,即我們不能看到程序算法的內部,因此無法理解人工智能是如何做出決策的。如果沒有解決好這個問題,一些涉嫌歧視的數據將被算法永久性地編碼進人工智能程序中,從而影響未來人類與人工智能的關系。不過,僅靠純粹的技術手段,很難實現對人工智能的每個階段實現無漏洞監控,同時還需通過人工評估和干預,才能確保偏見和歧視被徹底消除。

要消除人工智能潛在的歧視問題,第一步是打開算法“黑匣子”。出于專利保護和商業機密的考慮,許多公司的人工智能程序算法都處于保密狀態。不過,這一狀況正得到改變,目前人工智能領域正在加快代碼的開源,制定新的透明度標準,來提高人工智能產品的可靠性。AI NOW是美國紐約大學一個倡導算法公平的非營利組織,它提倡 “程序員必須對算法得出的結論做出解釋,否則就不能投入使用”。

目前,相當一部分互聯網巨頭開始正視這一點。如谷歌開發的幾個人工智能項目,程序員為機器學習增加了手動限制,使輸出的信息更準確,可理解性更高。美國國防部高級研究計劃局還資助了一項名為XAI(可解釋的人工智能)的計劃,旨在打開人工智能的 “黑匣子”,以保證用戶更好地控制人工智能程序。微軟首席執行官薩蒂亞·納德拉也認可 “算法問責制”的必要性。

但通過打開算法 “黑匣子”,制定法規和政策來確保消除人工智能的偏見和歧視,這還遠遠不夠。因為偏見與歧視不光存在于算法中,還存在于人工智能得出的結論、預測和建議中。

以虛擬助手為例,處理比較簡單的任務時,人工智能系統會偏向使用女聲(例如Apple的Siri和亞馬遜的Alexa);而解決疑難問題時,系統則選用男聲(例如IBM的Watson和微軟的愛因斯坦)。由于在人工智能行業女性從業人數偏少,這更是增加了性別歧視的可能性。

鑒于此,我們應加強對人工智能所使用的數據、算法以及模型的評估,以剔除潛在的可導致偏見與歧視的因素,并且加強程序員的 “算法問責制”,這樣才能提高人工智能產品的可靠性,最終建立起人機信任。

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 苗栗市| 阳原县| 上高县| 酉阳| 乃东县| 阿拉尔市| 延津县| 富民县| 林芝县| 布拖县| 叙永县| 福清市| 琼中| 翁牛特旗| 三原县| 柏乡县| 枣庄市| 南华县| 盐山县| 休宁县| 玉溪市| 安塞县| 阿拉尔市| 曲阳县| 黑河市| 乡宁县| 承德县| 连城县| 江山市| 翼城县| 仁怀市| 宿迁市| 兴隆县| 雅安市| 英超| 慈溪市| 漳浦县| 潍坊市| 夏津县| 德州市| 长葛市|