ChatGPT是一款功能強大的人工智能聊天機器人,在推出之后很快就給人留下了深刻的印象,但很多人指出它有一些嚴重的缺陷。
從安全漏洞到隱私問題,再到未經披露的訓練數據,人們對人工智能聊天機器人的應用有很多擔憂,但這項技術已經被整合到應用程序中,并被大量用戶使用,從學生到公司員工。
由于人工智能的發展沒有放緩的跡象,了解ChatGPT的問題就顯得更加重要了。隨著ChatGPT將改變人們的未來,以下介紹了ChatGPT的一些最主要的問題。
什么是ChatGPT?
ChatGPT是一個大型語言模型,旨在生成自然的人類語言。就像與某人交談一樣,人們可以與ChatGPT交談,它會記住人們在過去說過的話,同時也能夠在受到挑戰時自我糾正。
它接受了來自互聯網的各種文本的訓練,例如維基百科、博客文章、書籍和學術文章。除了以類似人類的方式回應,它還可以回憶當今世界的信息,并從過去提取歷史信息。
學習如何使用ChatGPT很簡單,而且很容易被愚弄,認為人工智能系統沒有任何麻煩。然而,在它發布后的幾個月里,隱私、安全及其對人們生活的更廣泛影響(從工作到教育)出現了一些關鍵的問題。
1.安全威脅和隱私問題
在2023年3月,ChatGPT出現了一個安全漏洞,一些用戶在其側邊欄中看到了他人的對話標題。對于任何一家科技公司來說,不小心分享用戶的聊天記錄都是一個嚴重的問題,考慮到很多人都在使用這個流行的聊天機器人,這種情況尤其糟糕。
據路透社報道,僅在2023年1月,ChatGPT的月活躍用戶就達到1億。雖然導致數據泄露的漏洞很快得到了修補,但意大利數據監管機構要求OpenAI公司停止處理意大利用戶數據的所有操作。
該機構懷疑ChatGPT違反了歐洲隱私法規。在調查了這個問題后,要求OpenAI公司滿足幾項要求才能恢復聊天機器人的使用。
OpenAI公司最終通過做出幾項重大改變解決了這個問題。首先,添加了年齡限制,只有18歲以上或13歲以上的人在監護人的許可下才能使用該應用程序。它還使其隱私政策更加明顯,并為用戶提供了一個選擇退出的表單,以排除他們的數據用于訓練ChatGPT,如果他們愿意,可以完全刪除這些數據。
這些變化是一個很好的開始,但是這些改進應該擴展到所有ChatGPT用戶。
這也不是ChatGPT造成安全威脅的唯一方式。與用戶一樣,員工不小心共享機密信息也很容易。一個很好的例子是三星公司的員工多次與ChatGPT共享公司信息。
2.對ChatGPT訓練和隱私問題的擔憂
在ChatGPT大受歡迎之后,許多人質疑OpenAI公司最初是如何訓練其模型的。
即使在意大利發生數據泄露事件之后,OpenAI公司的隱私政策有所改善,但難以滿足《通用數據保護條例》的要求,這是一項覆蓋歐洲的數據保護法。正如TechCrunch報道的那樣:“目前尚不清楚如何采用意大利民眾的個人數據訓練GPT模型,即從互聯網上抓取公共數據時的個人數據是否得到了有效的合法處理。或者,如果用戶現在要求刪除他們的數據,以前用于訓練模型的數據是否會被刪除或可以被刪除。”
OpenAI公司很有可能在訓練ChatGPT時收集了個人信息。雖然美國的法律沒有那么明確,但歐洲的數據法規仍然注重保護個人數據,無論他們是公開還是私下發布這些信息。
藝術家們也提出了類似的反對用作訓練數據的論點,他們表示,他們從未同意讓自己的作品訓練人工智能模型。與此同時,蓋蒂圖片社起訴了Stability.AI公司使用其受版權保護的圖像來訓練其人工智能模型。
除非OpenAI公司公布其訓練數據,否則缺乏透明度,很難知道是否合法。例如,人們根本不知道ChatGPT訓練的細節,使用了什么數據,數據來自哪里,或者系統架構的細節是什么樣子。
3.ChatGPT生成錯誤答案
ChatGPT在基本的數學方面不擅長,似乎不能回答簡單的邏輯問題,甚至會爭論完全錯誤的事實。正如社交媒體上的人們所證明的那樣,ChatGPT在很多場合都可能出錯。
OpenAI公司了解這些限制。該公司表示:“ChatGPT有時會寫出聽起來似乎合理但不正確或無意義的答案。”這種對事實和虛構的幻覺,正如該公司所提到的那樣,對于醫療建議或對關鍵歷史事件的事實的正確理解等事情來說尤其危險。
與Siri或Alexa等其他人工智能助手不同,ChatGPT并不使用互聯網來查詢答案。與其相反,它逐字逐句地構建句子,根據訓練選擇最可能出現的“標記”。換句話說,ChatGPT通過進行一系列猜測得出答案,這就是它可以爭論錯誤答案的原因,就好像它們是完全正確的一樣。
雖然它很擅長解釋復雜的概念,使它成為一個強大的學習工具,但重要的是不要相信它所說的一切。ChatGPT并不總是正確的,至少現在還不是。
4.ChatGPT的系統中存在偏見
ChatGPT是根據過去和現在世界各地人類的寫作進行訓練的。不幸的是,這意味著現實世界中存在的偏見也可能出現在人工智能模型中。
事實證明,ChatGPT會產生一些歧視性別、種族和少數群體的糟糕答案,該公司正在努力減少這些問題。
解釋這一問題的一種方法是指出數據是問題所在,將互聯網內外的偏見歸咎于人類。但部分責任也在于OpenAI公司,該公司的研究人員和開發人員選擇用于訓練ChatGPT的數據。
OpenAI公司再次意識到這是一個問題,并表示它正在通過收集用戶的反饋并鼓勵他們標記糟糕、冒犯或根本不正確的ChatGPT輸出來解決“偏見行為”。
由于ChatGPT有可能對人們造成傷害,人們可能會認為,在研究和解決這些問題之前,不應該向公眾發布ChatGPT。但是,致力于成為第一家創建最強大人工智能模型的公司,已經足以讓OpenAI公司把謹慎拋到腦后。
相比之下,谷歌母公司Aalphabet公司于2022年9月發布了一款名為“Sparrow”的類似人工智能聊天機器人。然而,出于類似的安全考慮,該機器人被放棄。
大約在同一時間,Facebook公司發布了一種名為Galactica的人工智能語言模型,旨在幫助學術研究。然而,在許多人批評它輸出了與科學研究有關的錯誤和有偏見的結果后,它迅速被召回。
5.聊天技術可能會替代人類的工作
ChatGPT的快速發展和部署尚未塵埃落定,但這并沒有阻止底層技術被整合到許多商業應用程序中。集成了GPT-4的應用程序包括Duolingo和Khan Academy。
前者是一款語言學習應用,而后者是一款多元化的教育學習工具。兩者都提供了本質上的人工智能導師,或者以人工智能驅動的角色的形式,用戶可以用其正在學習的語言與之交談。或者作為一名人工智能導師,可以為其學習提供量身定制的反饋。
這可能只是人工智能取代人類工作的開始。其他面臨顛覆的行業工作包括律師助理、律師、文案人員、記者和程序員。
一方面,人工智能可以改變人們的學習方式,可能更容易獲得教育和培訓,學習過程更容易一些。但另一方面,大量的人類工作職位也將消失。
據英國《衛報》報道,教育機構在倫敦和紐約證券交易所出現巨額虧損,凸顯出人工智能在ChatGPT推出僅6個月后就對一些市場造成了破壞。
技術進步總是導致一些人失業,但人工智能的發展速度意味著多個行業領域同時面臨快速變化。不可否認,ChatGPT及其底層技術將徹底重塑人們的現代世界。
6.聊天技術成為教育行業面臨的挑戰
用戶可以要求ChatGPT對其文章進行校對,或者指出如何改進段落。或者用戶可以把自己其中完全解放出來,讓ChatGPT為其完成所有的寫作。
很多教師已經嘗試過在ChatGPT上布置作業,并收到了比許多學生做得更好的答案。從撰寫求職信到描述著名文學作品的主要主題,ChatGPT可以毫不猶豫地完成所有任務。
這就引出了一個問題:如果ChatGPT可以為人們寫作,學生將來還需要學習寫作嗎?這似乎是一個存在主義的問題,但當學生開始使用ChatGPT來幫助他們寫論文時,學校必須盡快提供應對措施。
不僅是以英語為基礎的科目有風險,ChatGPT可以幫助人們完成任何涉及頭腦風暴、總結或得出明智結論的任務。
毫不奇怪,一些學生已經開始嘗試采用人工智能。據《斯坦福日報》報道,早期的調查表明,很多學生使用人工智能來幫助完成作業和考試。作為回應,一些教育工作者正在重寫課程,以應對使用人工智能瀏覽課程或考試作弊的學生。
7. ChatGPT可能會造成現實世界的傷害
在發布不久之后,有人試圖破解ChatGPT,導致人工智能模型可以繞過OpenAI公司的安全護欄,該護欄旨在防止它產生攻擊性和危險的文本。
ChatGPT Reddit上的一群用戶將他們的無限制人工智能模型命名為DAN,這是“Do Anything Now”的縮寫。可悲的是,做任何喜歡做的事情已經導致黑客增加了網絡詐騙。根據Ars Technica的報道,黑客正在出售無規則的ChatGPT服務,這些服務可以創建惡意軟件并產生網絡釣魚郵件。
通過人工智能生成的文本,試圖發現旨在從人們身上提取敏感信息的網絡釣魚電子郵件要困難得多。語法錯誤曾經是一個明顯的危險信號,而現在可能不是了,這因為ChatGPT可以流利地寫各種各樣的文本,從散文到詩歌到電子郵件。
虛假信息的傳播也是一個嚴重的問題。ChatGPT生成文本的規模,再加上讓錯誤信息聽起來令人信服的能力,使互聯網上的一切都變得可疑,并加劇了深度偽造技術的危險。
ChatGPT產生信息的速度已經給Stack Exchange帶來了問題,Stack Exchange是一家致力于為日常問題提供正確答案的網站。在ChatGPT發布后不久,大量用戶要求ChatGPT生成答案。
如果沒有足夠的人類志愿者來整理這些信息,就不可能提供高水平的高質量答案。更不用說,一些答案根本就不正確。為了避免網站被破壞,Stack Exchange禁止使用ChatGPT生成所有答案。
8.OpenAI公司具有掌控一切的力量
權力越大,責任越大,而OpenAI公司擁有很大的權力。它是首批真正用包括Dall-E 2、GPT-3和GPT-4在內的多個生成人工智能模型的人工智能開發商之一。
作為一家私營公司,OpenAI公司選擇用于訓練ChatGPT的數據,并選擇推出新開發項目的速度。因此,有很多專家對人工智能帶來的危險發出了警告,但幾乎沒有跡象表明這種危險會減緩。
與其相反,ChatGPT的流行刺激了大型科技公司之間的競爭,競相推出下一個大型人工智能模型;其中包括微軟的必應AI和谷歌的Bard。由于擔心快速發展會導致嚴重的安全問題,世界各地的一些科技領袖聯合簽署了一封信函,要求推遲人工智能模型的開發。
雖然OpenAI公司認為安全是重中之重,但對于模型本身的工作方式,人們還有很多不知道的地方,無論是好是壞。最終,大多數人可能盲目地相信OpenAI公司將負責任地研究、開發和使用ChatGPT。
無論人們是否同意它的方法,值得記住的是,OpenAI公司是一家私營公司,該公司將根據自己的目標和道德標準繼續開發ChatGPT。
解決人工智能的最大問題
ChatGPT有很多令人興奮的地方,但除了它的直接用途之外,還有一些嚴重的問題。
OpenAI公司承認,ChatGPT可能會產生有害的、有偏見的答案,他們希望通過收集用戶反饋來緩解這個問題。但即使事實并非如此,它也能產生令人信服的文本,這很容易被壞人利用。
隱私和安全漏洞已經表明,OpenAI公司的系統可能是脆弱的,將用戶的個人數據置于危險之中。更麻煩的是,有些人正在破解ChatGPT,并使用不受限制的版本以前所未有的規模制造惡意軟件和騙局。
對工作崗位的威脅和對教育行業的潛在顛覆是日益嚴重的問題。有了全新的技術,很難預測未來會出現什么問題,不幸的是,ChatGPT已經為人們帶來了相當多的挑戰。
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。