精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

偏見:人工智能輔助決策的隱患解讀

責任編輯:zsheng |來源:企業網D1Net  2019-01-08 10:34:02 本文摘自:OFweek機器人網

人們在招聘過程中的許多決定也被移交給AI,用以進行簡歷篩選、工作能力分析和比較等。招聘工作是一個非常強調時限的過程,招聘過程的每個參與方都要付出高昂的代價:一旦出錯的話代價甚至更高。據全美高校和雇主協會估計,在一家500人規模的中型公司中,雇傭一名雇員的費用約為7,600美元。通過讓算法來完成這一繁重的任務,企業可以將其大部分資源和資金投入到其他地方,最終也更可能找到合適的人才。

然而,“替代目標”成為這個過程中的一個問題,因為對許多理想的工作特征的評估很難直接操作。如今,業界的一些熱門詞匯包括“創造力”、“溝通”和“生產力”,所有這些都是難以衡量的。衡量創造力的最常見的方法是替代用途測試,在這種測試中,人們會為常見的項目提供非常規的用途(比如,列舉出回形針的25種用法,用以檢測應聘者“不走尋常路”的能力,譯者注)。基于這一衡量標準,員工可能會被分配一個“創造力能力傾向”分數,這個分數會加入訓練數據集,用以篩選具備相同特質的員工。問題是,替代測試只是測試創造力的一個方面,即發散思維。它忽略了創造力的所有其他方面,而有些方面可能對公司文化非常有價值。其結果是,公司招聘了一大批具備“創造力”的員工,然而他們卻都是以同樣的方式來進行“創造”的:這很諷刺,也很無聊。

我們已經將機器學習算法用于做出重要決策的可能性盡量理想化了,但事實是,機器無法理解客觀性、真實性、中立性或平等性。而當人類生命受到威脅時,所有這些特征都是重要的考慮因素。我們將何去何從?

結語

盡管我們已經闡明了人工智能模型可能帶來的許多問題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉變為基于人工智能的決策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。正因為如此,我們看到人工智能在基于決策和預測的任務中的應用仍舊在持續深入。但是,較少的偏見并不等同于沒有偏見,當算法做出有偏見的決定時會發生什么?我們如何決定誰應該為此承擔責任?畢竟我們沒辦法去懲罰一個有偏見的預測算法(能怎么辦呢,刪除它?)

可以說,跟蹤問責制的最佳方法是對人工智能決策過程進行準確和詳細的記錄。也就是說,做出決定的過程和數據必須是透明的,這樣如果有任何問題發生,第三方審計師就能夠追溯導致結果的步驟,以找到問題的根源。人們已經為此制定了法案和法律,以保持相關實踐的透明度。

當然,審計方法本身并不是沒有問題的。對于具有大數據集的人工智能來說,審計并不總是可行的,審計也不總是適用于深度學習系統,后者不只面臨大數據集的問題,還面臨復雜的計算網絡的挑戰。算法的自主性和透明性似乎互相矛盾,隨著算法在‘學習’和調整方面變得越來越好,人們就更難理解偏見發生在哪里了。雖然審計對于更簡單的模型是有效的,但我們可能需要一種不同的方法來減輕復雜算法的偏見。

另一種減輕偏見的方法是針對AI的訓練者和創建者。通過讓他們意識到自己的偏見,我們有更好的機會將這些偏見排除在算法之外(比如,在設計谷歌翻譯時考慮中性性別代詞)。值得注意的是,人類的偏見是客觀存在的,而且很難減輕,因為它是一種進化特征,但我們至少可以不斷意識到我們自己的大腦容易受到偏見的影響。總之,如果我們不斷學習、自查、保持明智并做出正確的選擇,算法將可以為緩解由來已久的偏見作出貢獻。

“繼續努力使文化變得更好,并不斷更新人工智能,以跟蹤文化的發展。這才是上策。”

關鍵字:智能

本文摘自:OFweek機器人網

x 偏見:人工智能輔助決策的隱患解讀 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

偏見:人工智能輔助決策的隱患解讀

責任編輯:zsheng |來源:企業網D1Net  2019-01-08 10:34:02 本文摘自:OFweek機器人網

人們在招聘過程中的許多決定也被移交給AI,用以進行簡歷篩選、工作能力分析和比較等。招聘工作是一個非常強調時限的過程,招聘過程的每個參與方都要付出高昂的代價:一旦出錯的話代價甚至更高。據全美高校和雇主協會估計,在一家500人規模的中型公司中,雇傭一名雇員的費用約為7,600美元。通過讓算法來完成這一繁重的任務,企業可以將其大部分資源和資金投入到其他地方,最終也更可能找到合適的人才。

然而,“替代目標”成為這個過程中的一個問題,因為對許多理想的工作特征的評估很難直接操作。如今,業界的一些熱門詞匯包括“創造力”、“溝通”和“生產力”,所有這些都是難以衡量的。衡量創造力的最常見的方法是替代用途測試,在這種測試中,人們會為常見的項目提供非常規的用途(比如,列舉出回形針的25種用法,用以檢測應聘者“不走尋常路”的能力,譯者注)。基于這一衡量標準,員工可能會被分配一個“創造力能力傾向”分數,這個分數會加入訓練數據集,用以篩選具備相同特質的員工。問題是,替代測試只是測試創造力的一個方面,即發散思維。它忽略了創造力的所有其他方面,而有些方面可能對公司文化非常有價值。其結果是,公司招聘了一大批具備“創造力”的員工,然而他們卻都是以同樣的方式來進行“創造”的:這很諷刺,也很無聊。

我們已經將機器學習算法用于做出重要決策的可能性盡量理想化了,但事實是,機器無法理解客觀性、真實性、中立性或平等性。而當人類生命受到威脅時,所有這些特征都是重要的考慮因素。我們將何去何從?

結語

盡管我們已經闡明了人工智能模型可能帶來的許多問題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉變為基于人工智能的決策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。正因為如此,我們看到人工智能在基于決策和預測的任務中的應用仍舊在持續深入。但是,較少的偏見并不等同于沒有偏見,當算法做出有偏見的決定時會發生什么?我們如何決定誰應該為此承擔責任?畢竟我們沒辦法去懲罰一個有偏見的預測算法(能怎么辦呢,刪除它?)

可以說,跟蹤問責制的最佳方法是對人工智能決策過程進行準確和詳細的記錄。也就是說,做出決定的過程和數據必須是透明的,這樣如果有任何問題發生,第三方審計師就能夠追溯導致結果的步驟,以找到問題的根源。人們已經為此制定了法案和法律,以保持相關實踐的透明度。

當然,審計方法本身并不是沒有問題的。對于具有大數據集的人工智能來說,審計并不總是可行的,審計也不總是適用于深度學習系統,后者不只面臨大數據集的問題,還面臨復雜的計算網絡的挑戰。算法的自主性和透明性似乎互相矛盾,隨著算法在‘學習’和調整方面變得越來越好,人們就更難理解偏見發生在哪里了。雖然審計對于更簡單的模型是有效的,但我們可能需要一種不同的方法來減輕復雜算法的偏見。

另一種減輕偏見的方法是針對AI的訓練者和創建者。通過讓他們意識到自己的偏見,我們有更好的機會將這些偏見排除在算法之外(比如,在設計谷歌翻譯時考慮中性性別代詞)。值得注意的是,人類的偏見是客觀存在的,而且很難減輕,因為它是一種進化特征,但我們至少可以不斷意識到我們自己的大腦容易受到偏見的影響。總之,如果我們不斷學習、自查、保持明智并做出正確的選擇,算法將可以為緩解由來已久的偏見作出貢獻。

“繼續努力使文化變得更好,并不斷更新人工智能,以跟蹤文化的發展。這才是上策。”

關鍵字:智能

本文摘自:OFweek機器人網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 金堂县| 佛坪县| 聊城市| 孟津县| 丹江口市| 新沂市| 靖远县| 九江市| 枞阳县| 鄂托克前旗| 蓝山县| 库尔勒市| 和静县| 桐柏县| 宁化县| 吉林省| 勐海县| 保德县| 仁布县| 赤峰市| 张掖市| 东乌| 五原县| 屯留县| 浦江县| 兴化市| 容城县| 克东县| 大石桥市| 宁陵县| 乌拉特中旗| 新建县| 满城县| 元谋县| 始兴县| 时尚| 烟台市| 丹寨县| 墨竹工卡县| 安国市| 浦东新区|