能夠判斷一個(gè)人是否說謊是日常生活中很重要的一部分,這在法庭上更重要。人們可能會(huì)發(fā)誓說他們會(huì)說實(shí)話,但他們并不總是遵守承諾,對(duì)無辜或有罪的判決需要具有對(duì)謊言的識(shí)別能力。
為了解決這個(gè)問題,來自馬里蘭大學(xué)(UMD)的研究人員開發(fā)了測(cè)謊分析和推理引擎(DARE)),這個(gè)系統(tǒng)使用人工智能(AI)在法庭審判視頻中自動(dòng)檢測(cè)出欺騙行為。
由自動(dòng)化研究中心(CfAR)主席拉里?戴維斯領(lǐng)導(dǎo)的UMD計(jì)算機(jī)科學(xué)研究團(tuán)隊(duì)描述了他們的測(cè)謊人工智能研究項(xiàng)目(仍需同行評(píng)議)。
研究人員還訓(xùn)練DARE如何尋找和分類人類的微表情,比如“嘴唇突出”或“皺眉”,以及分析聲音頻率,以揭示一個(gè)人是否在說謊。然后,測(cè)試人員使用一組訓(xùn)練錄像來測(cè)試演員們是否撒謊或說出真相。
那么,DARE到底有多準(zhǔn)確呢?
根據(jù)UMD研究員巴拉特 辛格的說法,“準(zhǔn)確”可能不是描述該系統(tǒng)的最佳詞匯。
“一些新聞文章誤解了‘準(zhǔn)確’的含義”他說。AUC指的是,一個(gè)分類器在隨機(jī)選擇的一個(gè)積極的情況下,比隨機(jī)選擇的消極事件的概率要高。
最終,DARE在測(cè)謊任務(wù)上,表現(xiàn)得比一般人更好。辛格說:“一個(gè)有趣的發(fā)現(xiàn)是我們?cè)谝曈X模塊中使用的特征。”“值得注意的是,視覺AI系統(tǒng)在預(yù)測(cè)欺騙方面明顯優(yōu)于普通人。”
DARE的AUA得分是0.877,再加上人類對(duì)微表情的注釋,這一成績提高到了0.922分。辛格指出,普通民眾的AUC是0.58。研究人員將在人工智能技術(shù)進(jìn)步協(xié)會(huì)(AAAI)今年2月舉行的人工智能2018大會(huì)上展示他們的研究成果。
說出真相
雖然一些現(xiàn)有的測(cè)謊技術(shù)可以產(chǎn)生相當(dāng)可靠的結(jié)果,但它們?cè)诜ㄍド喜⒉皇翘貏e有用。例如,Truth serums通常是非法的,而測(cè)謊儀在法庭上是不被允許的。DARE可被證明是規(guī)定的例外,但研究人員并不認(rèn)為這一應(yīng)用是法庭所限定的。
辛格說:“這個(gè)項(xiàng)目的目標(biāo)不是只專注于法庭視頻,而是在公開場合預(yù)測(cè)欺騙行為。”他指出,未來情報(bào)機(jī)構(gòu)可能會(huì)使用這種手段。“我們?cè)谏缃挥螒蛑羞M(jìn)行可控的實(shí)驗(yàn),比如Mafia,其更容易收集到更多的數(shù)據(jù),并對(duì)算法進(jìn)行廣泛的評(píng)估,”他說。“我們預(yù)計(jì),在這些受控設(shè)置中開發(fā)的算法也可以適用于其他場景。”
據(jù)美國電氣和電子工程師協(xié)會(huì)(IEEE)人工智能和自動(dòng)化系統(tǒng)全球行動(dòng)委員會(huì)執(zhí)行委員會(huì)主席拉賈?查蒂拉(Raja Chatilla)說,我們應(yīng)該謹(jǐn)慎使用。“如果這將被用于決定……人類的命運(yùn),那么它應(yīng)該被認(rèn)為是在它的局限和背景下幫助一個(gè)人——法官——做出一個(gè)決定,”查蒂拉表示,“高概率不是確定性”,并不是每個(gè)人的行為都是一樣的。此外,用于訓(xùn)練人工智能的數(shù)據(jù)也有存在偏見的可能性。
Chatilla確實(shí)注意到圖像和面部表情識(shí)別系統(tǒng)正在改進(jìn)。根據(jù)辛格的說法,我們可能只需要3到4年的時(shí)間,就可以通過閱讀人類表情背后的情感來發(fā)現(xiàn)欺騙。
(選自:futurism 編譯 :網(wǎng)易智能 參與:nariiy )