谷歌和斯坦福大學的研究人員表示,與AI模型進行兩小時的對話,就足以相當準確地刻畫出真人的性格特征。
在最近的一項研究中,研究人員基于與每位參與者進行的兩小時訪談,生成了1052名“模擬主體”(即AI復制品),這些訪談遵循了美國之聲項目(American Voices Project)開發的訪談協議,探討了社會科學家感興趣的一系列話題,包括人生故事和對當前社會問題的看法,用于訓練一個旨在模仿人類行為的生成式AI模型。
為評估AI復制品的準確性,每位參與者都完成了兩輪性格測試、社會調查和邏輯游戲。當AI復制品完成相同的測試時,其結果與真人參與者的答案有85%的吻合度。
在回答性格問卷時,AI克隆體的回答與真人參與者相差無幾,它們在復現性格問卷答案和確定社會態度方面表現尤為出色,但在涉及經濟決策的互動游戲中預測行為時,它們的準確性有所下降。
目的之問
科學家們解釋說,開發模擬主體的動力在于,有可能利用它們來進行研究,而這些研究如果以真人作為對象,將會成本高昂、不切實際或有違倫理。例如,AI模型可以幫助評估公共衛生措施的有效性,或更好地理解人們對產品發布的反應。研究人員表示,甚至模擬對重大社會事件的反應也是可以想象的。
研究人員寫道:“對人類態度和行為的通用模擬——每個模擬個體都能在一系列社會、政治或信息情境中互動——可以為研究人員提供一個實驗室,以測試一系列干預措施和理論。”
然而,科學家們也承認,這項技術可能會被濫用。例如,模擬主體可以用于在網絡上用深度偽造攻擊欺騙他人。
安全專家已經看到深度偽造技術正在迅速發展,并認為網絡犯罪分子找到針對企業的商業模式只是時間問題。
許多高管已經表示,他們的公司最近成為了深度偽造詐騙的目標,特別是針對財務數據的詐騙。安全公司Exabeam最近討論了一起事件,在這起事件中,深度偽造技術被用于求職面試,這與日益猖獗的朝鮮假冒IT工作人員詐騙有關。
谷歌和斯坦福大學的研究人員提議建立一個由他們生成的1000多個模擬主體組成的“主體庫”。該庫將由斯坦福大學托管,“為研究提供受控的、僅用于研究的API訪問權限,以了解主體行為”,研究人員表示。
雖然這項研究并沒有明確推進深度偽造技術的任何能力,但它確實展示了在當今先進研究中快速成為可能的模擬人類性格的創建方面所取得的進展。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。