OpenAI公司日前宣布將在其人工智能工具中構建安全措施。該公司是功能強大的GPT-4大型語言人工智能模型的開發者,該模型是其ChatGPT聊天機器人和其他人工智能系統的核心。隨著越來越多的人要求對生成式人工智能系統的開發采取更多控制措施,該公司為此不得不披露了這一信息。
OpenAI公司在一篇博客文章中詳細介紹正在采取的措施,以阻止其人工智能系統生成有害內容,避免違反數據隱私法規。雖然該公司開發的人工智能工具在全球范圍內引領了一場生成式人工智能熱潮,但在最近幾周,監管機構開始對這種人工智能系統的安全性產生興趣,意大利以潛在違反GDPR法規為由禁止使用ChatGPT。
包括馬斯克和蘋果聯合創始人沃茲尼亞克在內的人工智能專家近日在一封公開信上呼吁,暫時停止大型語言模型(LLM)的開發,美國總統拜登也加入了這一討論,他告訴媒體記者,人工智能公司必須把安全放在首位。
OpenAI公司如何在考慮安全的情況下構建GPT-4
OpenAI公司表示,在上個月發布其迄今為止最先進的GPT-4之前,該公司花了六個月的時間來完善該系統,使其盡可能難以被用于邪惡目的。
安全研究人員此前曾證明,通過“欺騙”聊天機器人,使其模仿糟糕的人工智能系統生成仇恨言論或惡意軟件代碼,從而繞過ChatGPT的安全控制是可能的。OpenAI公司表示,與GPT-3.5模型相比,GPT-4不太可能出現這種情況。
該公司的工程師表示:“與GPT-3.5相比,GPT-4對不允許內容的請求做出回應的可能性降低了82%,我們已經建立了一個強大的系統來監控人工智能系統的濫用。我們還在開發一些功能,能夠使開發人員為模型輸出設置更嚴格的標準,以更好地支持需要此類功能的開發人員和用戶。”
OpenAI公司的人工智能系統會泄露互聯網用戶的個人數據嗎?
該公司還借此機會回應了數據監管機構對其模型從互聯網上收集數據用于培訓目的的方式的擔憂。在意大利禁止ChatGPT之后,加拿大對這種聊天機器人的安全性展開了調查,歐洲其他國家正在考慮是否效仿意大利的做法。
OpenAI公司表示:“我們的大型語言模型是在廣泛的文本語料庫上進行訓練的,其中包括公開可用的內容、授權內容以及人工審稿人生成的內容。我們不會將數據用于銷售服務、發布廣告或建立用戶檔案。”
該公司還對如何確保個人數據在培訓期間不被泄露進行了詳細說明。該公司表示:“雖然我們的一些訓練數據包括在公共互聯網上可以獲得的個人信息,但我們希望我們的大型語言模型了解世界,而不是個人。
因此,我們努力在可行的情況下從訓練數據集中刪除個人信息,微調模型以拒絕對個人信息的請求,并響應個人從人工智能系統中刪除個人信息的請求。這些步驟最大限度地降低了我們的模型產生包含個人信息的響應的可能性。”
美國總統拜登加入了人工智能反對者的行列
在OpenAI公司發表這一聲明之前,美國總統拜登對媒體記者表示,人工智能開發者有責任確保他們的產品在公開之前是安全的。
拜登在與他的科學技術顧問委員會討論人工智能的發展后發表了講話。他表示,美國政府致力于推進去年10月推出的《人工智能權利法案》,以保護個人免受先進自動化系統的負面影響。
拜登說:“我們在去年10月提議了一項權利法案,以確保重要的保護措施從一開始就內置在人工智能系統中,這樣我們就不必回頭去做了。我期待我們的討論能夠以確保負責任的創新和適當的護欄,以保護美國民眾的權利和安全,保護他們的隱私,并解決可能存在的偏見和虛假信息等問題。”
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。