你需要知道的細分
種族偏見以多種形式出現在人工智能中,主要體現在它所訓練的數據算法缺乏多樣性。IBM研究人員一直在忙于提出減少用于訓練AI機器學習系統的數據集中的偏差的方法。如果你拒絕某人找工作,貸款或者決定他們是否應該因AI數據而入獄,這是一件大事。
該軟件巨頭開發了一個評級系統,可以對AI平臺的相對公平性進行排序,并解釋決策的制定方式。IBM將推出其AI Fairness 360工具包,并使開源社區可以輕松訪問新軟件,作為對抗同類開發人員當前狀態的一種方式。
“完全自動化的軟件服務解釋了決策,并在運行時檢測AI模型中的偏差- 正在做出決策- 捕獲可能產生的不公平結果。重要的是,它還會自動推薦數據添加到模型中,以幫助減輕它檢測到的任何偏差,”IBM在一份聲明中寫道。
CultureBanx此前曾報道人工智能平臺如何接管銀行貸款決策可能會使黑人家庭財富進一步落后。根據Zillow的報告,2016年,20.9%的黑人借款人和15.5%的西班牙裔借款人被拒絕貸款,8.1%的白人申請人和10.4%的亞洲申請人被拒絕。差距很大,因為擁有房屋可以幫助大多數人,無論種族如何,積累資產來增加他們的凈資產。
AI市場意識
IDC最近的一份報告指出,預計2022年全球認知和人工智能系統的支出將達到776億美元。如果這些預測能夠持續下去,IBM將會受益匪淺。該公司在AI領域的成功主要歸功于其Watson技術是第一個商用AI平臺。它是IBM Cognitive Solutions集團的一部分,該集團在過去五個季度的復合年增長率(CAGR)增長了1.4%。
然而,揮之不去的問題是人工智能只有它所提供的數據一樣好,所以如果信息有偏見,人工智能的決定也會反映出來。IBM的新貢獻可以增加另一層理解,以更好地解決AI偏見問題。這里有點值得思考的東西讓我們有點疑惑,誰決定所謂的“公平算法”有多公平?