應用在貸款中的人工智能技術可以加快貸款流程,并實現決策的自動化。
幾個月前,人工智能初創廠商Upstart公司宣布自成立以來籌集了1.6億美元的資金,并與奧馬哈第一國民銀行和堪薩斯城第一聯邦銀行簽署了協議。
Upstart公司因其創新的貸款方式而獲得用戶認可。其推出的平臺使用所謂的“替代數據”訓練的人工智能技術確定合格的貸款人。這樣的替代數據包括關于申請人的購買習慣、電話記錄、喜歡的游戲,以及在社交媒體的平均信用評分等信息。
然而,在貸款中使用替代數據并不會使使貸款過程更快、更公平,以及完全符合GDPR標準。并且不是一個新奇事物。
早期的信貸機構聘請專家來調查當地有關客戶的評價。例如,美國在1935年就對社區的集體信譽進行了分類。在2002年的最近一個案例中,加拿大一位輪胎銷售主管分析了去年的交易數據,發現購買屋頂清潔工具的客戶比購買廉價機油的客戶在財務上更可靠。
然而,過去和現在有著顯著的區別。早些時候,人們收集并處理了替代和傳統數據,包括債務收入比、貸款價值比、個人信用記錄等。現在,這種算法仍在發展和進步,而許多人認為它更客觀、更快。
然而令人擔憂的是,人工智能可能會比人類更具偏見。需要注意的是:如果不控制算法如何自學,那么人工智能的決策可能會更加片面。
人工智能偏見的蔓延
一般來說,人工智能偏見不是偶然發生的,訓練算法的人員會讓它變得主觀。受某些個人、文化、教育和特定位置因素的影響,即使是最佳算法訓練人員也可能使用固有偏見的輸入數據。
如果沒有及時發現,可能會導致產生具偏見的決定,這將隨著時間的推移而加劇。這是因為算法根據以前的算法做出新的決策,其自身發展最終比其操作開始時復雜得多(雪球效應)。簡而言之,人工智能在不斷地自學,無論訓練材料是否正確。
以下了解一下人工智能在做出的貸款決策中可能會產生什么樣的歧視。了解以下的例子,可以遵循關鍵的想法:人工智能偏見通常源于人類的偏見。
人工智能可以基于性別進行區分
傳統上,男性在高收入和高職位方面的比例很高,而女性仍然面臨所謂的“玻璃天花板”職業發展和薪酬差距問題。因此,盡管女性的儲蓄能力和支付能力都比男性強,但與男性相比,女性企業家獲得的商業貸款越來越少。
人工智能的使用可能只會加劇這種趨勢,因為性別歧視的輸入數據可能會導致大量的女性貸款被拒。基于錯誤的統計數據,人工智能算法可能更傾向于男性申請者而不是女性申請者,即使所有其他參數都相似。
人工智能可以根據種族區分
這聽起來不太可能,但黑人申請人被拒絕貸款的可能性是白人的兩倍。如果用于算法學習的輸入數據反映了這種種族差異,那么它可以很快地實施,并開始越來越多拒絕黑人貸款。
替代數據也可能成為人工智能“種族主義”的來源。算法將申請者之前罰款和逮捕信息輸入其中。事實是,這樣的信息并不是中立的。據《華盛頓郵報》報道,非裔美國人比美國白人更容易成為警察的目標,而且在很多情況下都是毫無根據的。
其他類型的數據也是如此。少數種族群體面臨著收入、職業和社區的不平等。所有這些指標可能成為人工智能對非白人申請人說“不”的堅實理由。
人工智能可以根據年齡區分
信用記錄越多,人們就越了解某個人的信譽。老年人通常擁有更好的信用記錄,因為他們背后有更多的金融交易。相反,年輕一代有關業務的數據較少,這可能成為拒絕的一個不公平原因。
人工智能可以根據教育來區分
一些人工智能借貸算法在做出信用決策時可以分析申請人的語法和拼寫習慣。一種算法可能根據學習錯誤的拼寫習慣或錯別字來了解申請人的文化程度,從而導致很多申請人信譽不良。
從長遠來看,該算法開始拒絕具有寫作困難或障礙的符合條件的申請者,即使他們與支付能力無關。
解決貸款中的偏見
總的來說,為了使人工智能運行的貸款過程不受偏見的影響,需要讓輸入數據從任何可能的人類偏見中清除,從性別、種族主義到年齡歧視中清除出來。
為了使訓練數據更加中立,組織應該組建更多不同的人工智能開發團隊,包括貸款方和數據科學家,貸款方可以告知工程師他們工作的具體細節。更重要的是,這些金融機構應該培訓參與人工智能決策的每個人,以便在他們的工作中遵守和執行公平和非歧視性的做法。否則,如果不采取措施確保多樣性和包容性,貸款企業就有可能推出嚴重違反反歧視和公平借貸法律的人工智能算法。
實現更公平的人工智能的另一個步驟是審核算法做出的借貸決策;工作人員應評估這些決策。GDPR法規第22條支持這一觀點,聲稱人們不應受到純粹的自動化決策的影響,特別是這可能產生法律效力。
事實上,說起來容易做起來難。然而如果不加以解決,無意識的人工智能偏見問題可能會使貸款業務處于困境,并且不亞于任何故意的偏見行為,只有通過數據科學家和貸款專業人員的共同努力才能避免迫在眉睫的風險。