然而,“替代目標”成為這個過程中的一個問題,因為對許多理想的工作特征的評估很難直接操作。如今,業界的一些熱門詞匯包括“創造力”、“溝通”和“生產力”,所有這些都是難以衡量的。衡量創造力的最常見的方法是替代用途測試,在這種測試中,人們會為常見的項目提供非常規的用途(比如,列舉出回形針的25種用法,用以檢測應聘者“不走尋常路”的能力,譯者注)。基于這一衡量標準,員工可能會被分配一個“創造力能力傾向”分數,這個分數會加入訓練數據集,用以篩選具備相同特質的員工。問題是,替代測試只是測試創造力的一個方面,即發散思維。它忽略了創造力的所有其他方面,而有些方面可能對公司文化非常有價值。其結果是,公司招聘了一大批具備“創造力”的員工,然而他們卻都是以同樣的方式來進行“創造”的:這很諷刺,也很無聊。
我們已經將機器學習算法用于做出重要決策的可能性盡量理想化了,但事實是,機器無法理解客觀性、真實性、中立性或平等性。而當人類生命受到威脅時,所有這些特征都是重要的考慮因素。我們將何去何從?
結語
盡管我們已經闡明了人工智能模型可能帶來的許多問題,但仍舊有很多理由可以支撐我們從以人為中心的決策方式轉變為基于人工智能的決策方式。正如前面提到的,盡管人工智能存在種種缺陷,但它仍然比人類更客觀。正因為如此,我們看到人工智能在基于決策和預測的任務中的應用仍舊在持續深入。但是,較少的偏見并不等同于沒有偏見,當算法做出有偏見的決定時會發生什么?我們如何決定誰應該為此承擔責任?畢竟我們沒辦法去懲罰一個有偏見的預測算法(能怎么辦呢,刪除它?)
可以說,跟蹤問責制的最佳方法是對人工智能決策過程進行準確和詳細的記錄。也就是說,做出決定的過程和數據必須是透明的,這樣如果有任何問題發生,第三方審計師就能夠追溯導致結果的步驟,以找到問題的根源。人們已經為此制定了法案和法律,以保持相關實踐的透明度。
當然,審計方法本身并不是沒有問題的。對于具有大數據集的人工智能來說,審計并不總是可行的,審計也不總是適用于深度學習系統,后者不只面臨大數據集的問題,還面臨復雜的計算網絡的挑戰。算法的自主性和透明性似乎互相矛盾,隨著算法在‘學習’和調整方面變得越來越好,人們就更難理解偏見發生在哪里了。雖然審計對于更簡單的模型是有效的,但我們可能需要一種不同的方法來減輕復雜算法的偏見。
另一種減輕偏見的方法是針對AI的訓練者和創建者。通過讓他們意識到自己的偏見,我們有更好的機會將這些偏見排除在算法之外(比如,在設計谷歌翻譯時考慮中性性別代詞)。值得注意的是,人類的偏見是客觀存在的,而且很難減輕,因為它是一種進化特征,但我們至少可以不斷意識到我們自己的大腦容易受到偏見的影響。總之,如果我們不斷學習、自查、保持明智并做出正確的選擇,算法將可以為緩解由來已久的偏見作出貢獻。
“繼續努力使文化變得更好,并不斷更新人工智能,以跟蹤文化的發展。這才是上策。”