谷歌和斯坦福大學(xué)的研究人員表示,與AI模型進行兩小時的對話,就足以相當(dāng)準確地刻畫出真人的性格特征。
在最近的一項研究中,研究人員基于與每位參與者進行的兩小時訪談,生成了1052名“模擬主體”(即AI復(fù)制品),這些訪談遵循了美國之聲項目(American Voices Project)開發(fā)的訪談協(xié)議,探討了社會科學(xué)家感興趣的一系列話題,包括人生故事和對當(dāng)前社會問題的看法,用于訓(xùn)練一個旨在模仿人類行為的生成式AI模型。
為評估AI復(fù)制品的準確性,每位參與者都完成了兩輪性格測試、社會調(diào)查和邏輯游戲。當(dāng)AI復(fù)制品完成相同的測試時,其結(jié)果與真人參與者的答案有85%的吻合度。
在回答性格問卷時,AI克隆體的回答與真人參與者相差無幾,它們在復(fù)現(xiàn)性格問卷答案和確定社會態(tài)度方面表現(xiàn)尤為出色,但在涉及經(jīng)濟決策的互動游戲中預(yù)測行為時,它們的準確性有所下降。
目的之問
科學(xué)家們解釋說,開發(fā)模擬主體的動力在于,有可能利用它們來進行研究,而這些研究如果以真人作為對象,將會成本高昂、不切實際或有違倫理。例如,AI模型可以幫助評估公共衛(wèi)生措施的有效性,或更好地理解人們對產(chǎn)品發(fā)布的反應(yīng)。研究人員表示,甚至模擬對重大社會事件的反應(yīng)也是可以想象的。
研究人員寫道:“對人類態(tài)度和行為的通用模擬——每個模擬個體都能在一系列社會、政治或信息情境中互動——可以為研究人員提供一個實驗室,以測試一系列干預(yù)措施和理論。”
然而,科學(xué)家們也承認,這項技術(shù)可能會被濫用。例如,模擬主體可以用于在網(wǎng)絡(luò)上用深度偽造攻擊欺騙他人。
安全專家已經(jīng)看到深度偽造技術(shù)正在迅速發(fā)展,并認為網(wǎng)絡(luò)犯罪分子找到針對企業(yè)的商業(yè)模式只是時間問題。
許多高管已經(jīng)表示,他們的公司最近成為了深度偽造詐騙的目標,特別是針對財務(wù)數(shù)據(jù)的詐騙。安全公司Exabeam最近討論了一起事件,在這起事件中,深度偽造技術(shù)被用于求職面試,這與日益猖獗的朝鮮假冒IT工作人員詐騙有關(guān)。
谷歌和斯坦福大學(xué)的研究人員提議建立一個由他們生成的1000多個模擬主體組成的“主體庫”。該庫將由斯坦福大學(xué)托管,“為研究提供受控的、僅用于研究的API訪問權(quán)限,以了解主體行為”,研究人員表示。
雖然這項研究并沒有明確推進深度偽造技術(shù)的任何能力,但它確實展示了在當(dāng)今先進研究中快速成為可能的模擬人類性格的創(chuàng)建方面所取得的進展。
企業(yè)網(wǎng)D1net(hfnxjk.com):
國內(nèi)主流的to B IT門戶,旗下運營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。旗下運營19個IT行業(yè)公眾號(微信搜索D1net即可關(guān)注)。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。