歧視看似是人類社會中特有的、需要認(rèn)知才能產(chǎn)生的現(xiàn)象。但是,某些類型的計算機(jī)算法已經(jīng)從公開檔案等人類資料中習(xí)得了性別歧視、種族歧視等偏見。最新的一項研究甚至發(fā)現(xiàn),人工智能可以進(jìn)化出不同的偏見群體。
為證實人工智能可以自己產(chǎn)生偏見,科學(xué)家用計算機(jī)模擬博弈。博弈中,每個個體都可以將錢送給自己所在的群體或其他群體,以測試每個個體的給予策略,觀察其是否對其他群體有偏見。這一博弈由一臺超級計算機(jī)模擬,其中包括上千個個體,每個個體都可以通過復(fù)制其他來自相同群體或不同群體的個體學(xué)習(xí)新的策略。
參與研究的卡迪夫大學(xué)計算機(jī)科學(xué)與信息學(xué)教授Roger Whitaker表示:“通過成千上萬次模擬,我們發(fā)現(xiàn)了偏見是如何演化的、哪些情況可以激化偏見、哪些情況可以減弱偏見。我們的研究表明,偏見是自然產(chǎn)生的、影響非常大的,它很容易被激勵、損害大范圍的連通性。來自同一偏見群體的保護(hù)可以非主觀地引起更進(jìn)一步的偏見,使整個群體四分五裂。這種廣泛傳播的偏見很難逆轉(zhuǎn)。”這些個體是通過復(fù)制那些有更高短期效益的個體使得偏見升級的,可見偏見并不需要高級認(rèn)知能力。
在另一項關(guān)于性別的研究中,研究人員發(fā)現(xiàn),微軟、IBM和Face++等的人臉識別服務(wù)中存在性別歧視和種族歧視。這些服務(wù)對于男性白人更加友好,而對于男性黑人和女性黑人錯誤率最高。微軟在21%情況下無法識別黑人女性,而IBM和Face++有35%情況無法識別。