ChatGPT在短時(shí)間內(nèi)生成內(nèi)容的能力使其越來越受到內(nèi)容創(chuàng)作者的歡迎。然而,像任何強(qiáng)大的技術(shù)一樣,人工智能語言模型也可能被濫用。
在人們對(duì)這個(gè)問題掉以輕心之前,要知道濫用人工智能可能會(huì)導(dǎo)致法律問題、聲譽(yù)損害和錯(cuò)誤的輸出。以下探討了內(nèi)容創(chuàng)建者使用ChatGPT的錯(cuò)誤方式,以便可以避免這些問題。
1.不要過度依賴ChatGPT
假設(shè)用戶是第一次使用ChatGPT,就會(huì)發(fā)現(xiàn)它的響應(yīng)速度非常快。以前花費(fèi)幾個(gè)小時(shí)創(chuàng)造的東西現(xiàn)在只需要幾秒鐘。隨著時(shí)間的推移,用戶可能會(huì)開始嚴(yán)重依賴,通常只是進(jìn)行一些修改,并沒有費(fèi)心去研究。
這種現(xiàn)象就是人們所說的對(duì)人工智能的過度依賴,對(duì)于那些被迫快速生產(chǎn)內(nèi)容的創(chuàng)作者來說,這是一條誘人的途徑。然而,微軟公司發(fā)表的有關(guān)人工智能過度依賴的文獻(xiàn)綜述警告說,過度依賴人工智能會(huì)導(dǎo)致用戶接受錯(cuò)誤的結(jié)果。
以網(wǎng)絡(luò)媒體CNET的爭(zhēng)議為例。CNET發(fā)表了人工智能撰寫的財(cái)務(wù)分析文章,署名為“CNET Money Staff”。不幸的是,一些專業(yè)人士在人工智能生成的文章中發(fā)現(xiàn)了明顯的錯(cuò)誤。它指責(zé)這家媒體機(jī)構(gòu)發(fā)布可怕的財(cái)務(wù)建議,并大量生產(chǎn)廉價(jià)內(nèi)容來操縱谷歌搜索結(jié)果牟利。
不知道CNET是過度依賴人工智能還是過度自信,或者沒有人會(huì)注意到。無論如何,這一事件應(yīng)該成為一個(gè)警告,不要過度依賴人工智能的輸出。
需要記住的是,ChatGPT可能會(huì)大量輸出過時(shí)的信息。正如ChatGPT公司自己所說,訓(xùn)練ChatGPT所采用的知識(shí)的截止日期為2021年9月,所以用戶反復(fù)檢查信息的真實(shí)是很好的措施。
OpenAI公司的CEO Sam Altman也在美國廣播公司新聞的視頻采訪中提到,用戶應(yīng)該對(duì)ChatGPT的“幻覺問題”更加謹(jǐn)慎。它可以自信地陳述虛構(gòu)的想法,就好像它們是事實(shí)一樣。像CNET網(wǎng)絡(luò)這一事件可能會(huì)損害用戶將其作為權(quán)威消息來源的可信度。
當(dāng)用戶沒有足夠的知識(shí)來評(píng)估結(jié)果時(shí),很容易盲目地接受ChatGPT輸出的內(nèi)容。此外,當(dāng)ChatGPT的答案與用戶的理念一致時(shí),可能不會(huì)費(fèi)心去檢查不同的觀點(diǎn)。為了避免這些尷尬的情況,需要核實(shí)事實(shí),尋求不同的觀點(diǎn),并獲得專家的建議。
用戶正在學(xué)習(xí)使用ChatGPT進(jìn)行內(nèi)容創(chuàng)作,包括什么是人工智能幻覺,以及如何在要掌握的主題列表中發(fā)現(xiàn)它。更重要的是,不要忽視人類的判斷力和創(chuàng)造力。需要記住的是,人工智能應(yīng)該增強(qiáng)其思維,而不是取代它。
2.不要向ChatGPT索取研究鏈接
如果用戶要求ChatGPT提供研究資源的互聯(lián)網(wǎng)鏈接,那么可能會(huì)感到失望。ChatGPT也許提供鏈接,但它們可能是錯(cuò)誤的,或者不一定是網(wǎng)絡(luò)上最好的內(nèi)容。
為了進(jìn)行測(cè)試,研究人員讓ChatGPT提供JSTOR的研究論文鏈接,這些論文是關(guān)于英國年輕奇幻作家撰寫的成長故事。ChatGPT提供了5種資源,包括標(biāo)題、卷號(hào)、頁碼和作者。
乍一看,這份名單似乎可信。JSTOR上的文章有一些聽起來令人印象深刻的標(biāo)題,例如《構(gòu)建混合身份:薩莉·格林三部曲中的種族與民族》。但是谷歌搜索很快就會(huì)顯示大多數(shù)鏈接指向錯(cuò)誤的JSTOR文章,其中一個(gè)鏈接指向404頁面。
在另一個(gè)例子中,提供給ChatGPT一個(gè)更具體的主題來研究,看看它是否會(huì)產(chǎn)生更好的結(jié)果。這是使用的提示:“我正在寫一篇關(guān)于‘英國青年和成年當(dāng)代小說中的女主角’的文學(xué)研究論文,你能給我一篇關(guān)于這個(gè)話題的文獻(xiàn)綜述嗎?”
ChatGPT給出了一個(gè)包含五部作品的列表,并附有作者的姓名和摘要。然而,人們?cè)诰W(wǎng)上找不到它列出的任何作品。
為了更好地理解這些信息,研究人員要求提供鏈接。ChatGPT這一次卻拒絕了,聲稱這只是一個(gè)沒有網(wǎng)頁瀏覽功能的人工智能語言模型。然而,它提供了書目信息,盡管這些作品據(jù)稱是在2004~2018年期間創(chuàng)作的,但無法在網(wǎng)上核實(shí)。
當(dāng)被提示提供鏈接以驗(yàn)證其提供的信息時(shí),ChatGPT這次斷然拒絕了。OpenAI公司表示,它沒有網(wǎng)絡(luò)瀏覽功能,而是提供了一份書目信息列表。然而,其數(shù)據(jù)仍然是錯(cuò)誤的。
OpenAI公司上最新的ChatGPT發(fā)布說明顯示它現(xiàn)在具有網(wǎng)頁瀏覽功能。但是這些功能還沒有普及到每一個(gè)用戶。此外,正如研究人員所指出的那樣,ChatGPT的搜索結(jié)果不一定是互聯(lián)網(wǎng)上最好的,因?yàn)閷I(yè)人士可以操縱搜索引擎的結(jié)果。
為了避免這個(gè)問題:
·用戶可以為其研究使用更合適的在線資源。
·如果需要學(xué)術(shù)研究的資源,可以查看Google Scholar或人工智能研究助手Elicit。
·在選擇引用哪篇文章時(shí),記住要批判性地評(píng)估結(jié)果并做出判斷。
3.不要用ChatGP代替職場(chǎng)關(guān)系
用戶可以使用ChatGPT做的一些事情可能會(huì)誘使用戶將其擬人化或賦予其人類屬性。例如,可以向ChatGPT尋求建議,如果需要找人聊天,可以和它聊天。
在下面的例子中,可以讓ChatGP作為十年來最好的朋友,提供關(guān)于職場(chǎng)倦怠的建議,它似乎傾聽并感同身受。
但無論它聽起來多么富有同情心,ChatGPT都不是人類。聽起來像人類生成的句子只是ChatGPT根據(jù)其訓(xùn)練數(shù)據(jù)預(yù)測(cè)序列中的下一個(gè)單詞或“標(biāo)記”的結(jié)果。它不像人類那樣有知覺,有自己的意志和思想。
也就是說,ChatGPT并不能代替工作場(chǎng)所中的人際關(guān)系和協(xié)作。正如哈佛大學(xué)“工作與幸福倡議”所言,這些人際關(guān)系讓人受益,有助于提高幸福感,免受工作壓力的影響。
學(xué)習(xí)使用最新的技術(shù)工具很重要,但與團(tuán)隊(duì)其他成員的互動(dòng)也是必不可少的,而不是依靠ChatGPT復(fù)制社會(huì)關(guān)系,建立人際關(guān)系技能,與同事互動(dòng),并找到能夠一起更好地完成工作的人。
4.不要向ChatGPT發(fā)送無效提示
在創(chuàng)建內(nèi)容時(shí),是否發(fā)現(xiàn)很難從ChatGPT中獲得最佳響應(yīng)?提供場(chǎng)景和給出精確的指示應(yīng)該能解決這個(gè)問題。
在下面的例子中,可以讓ChatGPT總結(jié)一下美國鄉(xiāng)村音樂歌手Eric Allen在Hackernoon上寫的一篇有趣的博客。這篇冗長的文章描述了Allen在ChatGPT中改進(jìn)人工智能提示的過程,以創(chuàng)建一個(gè)名為BeatBrain的音樂推薦系統(tǒng)。
然而,ChatGPT并不熟悉Allen的文章。當(dāng)要求ChatGPT分享鏈接并做出總結(jié)時(shí),ChatGPT卻錯(cuò)誤地聲稱Eric Allen創(chuàng)立了BeatBrain公司,該公司利用GPT-3技術(shù)創(chuàng)作人工智能生成的音樂。
為了幫助ChatGPT,將文章分幾部分進(jìn)行復(fù)制粘貼,并要求在每次上傳后提供摘要。ChatGPT這一次能夠準(zhǔn)確地完成任務(wù)。還有一次,ChatGPT提供了評(píng)論而不是摘要,但是研究人員用另一個(gè)提示對(duì)它進(jìn)行了重定向。
這個(gè)例子是一個(gè)關(guān)于如何使用ChatGPT有效地總結(jié)長篇技術(shù)文章的實(shí)驗(yàn)。然而,人們現(xiàn)在可以訪問許多互聯(lián)網(wǎng)資源,并學(xué)習(xí)提示技術(shù)來改進(jìn)其ChatGPT響應(yīng)。
使用推薦的提示并不是防止ChatGPT產(chǎn)生幻覺的萬無一失的方法,但它可以幫助服務(wù)商提供準(zhǔn)確的結(jié)果,還可以查看GitHub上最好的ChatGPT提示,以獲取有關(guān)提示技術(shù)的更多信息。
最大化ChatGPT的功能,但要注意它的局限性
ChatGPT提供了前所未有的速度和便利,但使用它也需要謹(jǐn)慎和負(fù)責(zé)。避免過度依賴ChatGPT,需要使用更合適的工具進(jìn)行研究,更好地與團(tuán)隊(duì)合作,并學(xué)會(huì)有效地使用提示以最大限度地獲得其好處。
接受ChatGPT的力量,但要始終注意其局限性。通過最大化ChatGPT的潛力,同時(shí)最小化它的缺陷,可以產(chǎn)生有影響力的、有創(chuàng)意的內(nèi)容,從而提高工作質(zhì)量。
關(guān)于企業(yè)網(wǎng)D1net(hfnxjk.com):
國內(nèi)主流的to B IT門戶,同時(shí)在運(yùn)營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_(tái)-信眾智(www.cioall.com)。同時(shí)運(yùn)營19個(gè)IT行業(yè)公眾號(hào)(微信搜索D1net即可關(guān)注)
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。