如今的人工智能的面部識別算法并不完美。如果企業(yè)正在考慮部署此技術,那么應該知道以下這些內(nèi)容。
安裝在貨架上的攝像機配有人工智能面部識別軟件,可以識別消費者的年齡、性別和種族,這是今年1月在紐約舉行的全美零售聯(lián)盟大型展會期間向零售公司推出的新興系統(tǒng)之一。
這個想法是給實體店提供人口統(tǒng)計信息,以指導他們?nèi)绾蜗騻€人客戶推銷。這對于像亞馬遜這樣一直在利用客戶數(shù)據(jù)的在線零售商而言具有競爭優(yōu)勢。
但是,采用攝像頭捕捉客戶的照片,用一種他們甚至不會注意到的方式,是不是入侵性太強?除此之外,還有其他問題。如果該軟件錯誤地將男性識別為女性并為其提供女性衛(wèi)生用品的折扣,該怎么辦?有什么后果?
零售環(huán)境中的后果可能并不十分重要,但客戶可能會感到煩惱,并在社交媒體上談論,并且不再回到那家商店購物。但是,在機器視覺和人工智能驅(qū)動的面部識別軟件的其他應用中,其后果會更嚴重嗎?
事實證明,人們對人工智能面部識別軟件非常關注,它在商業(yè)上可從許多主要供應商獲得,其中包括微軟、IBM和亞馬遜。
最近的一項研究重點是,一些商業(yè)算法在識別膚色較深的人員和女性方面不如識別膚色較淺的男人準確。這是以前討論過的一個話題。例如,2018年7月,美國公民自由聯(lián)盟(ACLU)對美國國會議員的照片應用了亞馬遜算法,該算法確定其中28人是因犯罪而被捕的人。
最近麻省理工學院媒體實驗室的一項研究提出這樣一個問題:這些商業(yè)算法的公開審計是否會影響供應商對提高算法準確性的關注。
這項研究報告由麻省理工學院的研究生Joy Buolamwini共同撰寫,他也是算法正義聯(lián)盟(Algorithmic Justice League)的創(chuàng)始人,該組織自稱致力于解決算法中的偏見。這項研究表明,這些算法最擅長識別膚色較淺的男性。他們在識別女性或膚色較深的人時表現(xiàn)不佳。研究還指出,一些供應商在向他們指出這些問題后改進了他們的算法。亞馬遜公司對這項研究的回應刊登在《紐約時報》的文章中,Buolamwini已經(jīng)發(fā)表了她關于這個問題的聲明和回應,以及供應商對媒體的回應。
在機器學習中,根據(jù)所使用的訓練數(shù)據(jù)的數(shù)量和類型,結果可能有偏差或不準確。例如,亞馬遜公司使用機器學習來篩選求職者的簡歷,最后得到了大多數(shù)的男性候選人。這可能是因為用于訓練算法的歷史數(shù)據(jù)池中男性多于女性。
通過向用于訓練算法的數(shù)據(jù)池中添加更多的數(shù)據(jù)或數(shù)據(jù)源,供應商可以提高他們的人工智能面部識別系統(tǒng)的準確性。
然而,供應商也提供了一種安全閥來防止這些算法的缺陷。這些系統(tǒng)允許組織客戶設置一個閾值或置信水平。這可以根據(jù)組織為結果計劃的操作類型進行設置。
全美零售聯(lián)盟展會展出的零售系統(tǒng)展示了它的運作方式。例如,就性別而言,這些系統(tǒng)可能會確定某人是男性,但他們也會提供一個信心分數(shù),基本上說他們是67%(或其他百分比)確定這個人是男性。零售商已經(jīng)設定了他們愿意接受的置信水平。因此,如果有人被推斷為具有67%置信度分數(shù)的男性,并且零售商已將閾值水平設定為60%,則客戶將看到為男性定制的優(yōu)惠。如果零售商將閾值分數(shù)設置為70%,則客戶的67%分數(shù)將不會達到該閾值,并且客戶將看到可以對任何客戶(男性或女性)提供的通用報價。
例如,如果風險很高,在一個可能改變某人生活軌跡的執(zhí)法應用程序中,組織可能會將閾值設置為99%。如果風險沒有那么高,他們可能會把門檻設置在一個較低的水平。
提高隱私意識
但是,收集客戶圖像是否存在隱私問題,特別是在GDPR法規(guī)和其他新數(shù)據(jù)隱私法已經(jīng)實施的時代中?全美零售聯(lián)盟展會的其中一位展臺代表表示,客戶的圖像不會被保留。但是,會保留并分析有關訪問特定顯示的客戶的人口統(tǒng)計數(shù)據(jù)的匯總數(shù)據(jù),以幫助零售商深入了解其客戶。
企業(yè)是否應該嘗試使用人工智能面部識別軟件?這可能取決于應用程序和風險等級。對于那些希望在數(shù)字競爭對手中獲得優(yōu)勢的實體商店零售商來說,這些應用程序可以開辟一個前所未有的數(shù)據(jù)和洞察世界。
在其他的情況下,采用機器視覺技術查找人們的圖像與已知圖像數(shù)據(jù)庫進行匹配,例如用于打擊拐賣兒童犯罪。人工智能可以展示可能的匹配,并且最終確定是否找到了匹配的人。在這種類型的應用中使用人工智能的好處是,無論是識別失蹤的孩子還是在擁擠的體育賽事中實時識別可疑的恐怖分子,該算法都可以在幾秒鐘內(nèi)分析并進行匹配。但是在這些高風險的應用中,讓人員在循環(huán)中進行最后一次調(diào)用將是防止這種新興技術出現(xiàn)錯誤的重要保障。
這是企業(yè)應該牢記的事情。人工智能識別人臉技術還是一項新技術,顯然它并不完美,應該謹慎處理。此外,與許多新興技術一樣,到目前為止,還缺乏管理其使用的許多法規(guī)。而這些法規(guī)可能會在未來幾年內(nèi)出現(xiàn)。