一般而言,AIGC指的是一類ML技術,可以創建與人類創造的內容非常相似的圖像、音樂和文本等內容。另一方面,LLMs是具有數十億個參數的神經網絡,這些參數已經在大量文本數據上進行了訓練,這使它們能夠理解、處理和生成類似人類的語言。
總而言之,這些技術提供了一系列不同的應用,這些應用具有重塑不同行業的潛力,并提高了人與機器之間交互的效能。通過探索這些應用,企業領導者和決策者可以獲得寶貴的靈感,推動業務加速增長,并通過快速原型制作實現明顯改善的業務成果。AIGC的額外優勢是,這些應用程序中的大多數只需要最低限度的專業知識,不需要進一步的模型培訓。
快速聲明:人們通常傾向于將第二代AI與ChatGPT聯系在一起,但也有許多其他供應商的產品可供選擇,如谷歌的T5、Meta的Llama、TII的Falcon和Anthropic的Claude。雖然本文中討論的大多數應用程序都使用了OpenAI的ChatGPT,但你可以很容易地調整和切換底層LLMs,以與你特定的預算、延遲(你需要模型生成完成的速度——較小的模型允許更快的加載并減少推理延遲)和下游任務保持一致。
1.將LLMs連接到外部數據
?在許多開箱即用的任務中表現出令人印象深刻的能力,例如翻譯和匯總LLMs,而不需要進行初始定制。他們之所以如此擅長這些通用任務,是因為底層基礎模型已經在大型但通用的數據集上進行了培訓。然而,這種能力可能不會無縫地擴展到特定于領域的任務,例如,提供有關公司年度報告的答案。這就是檢索增強生成(RAG)的用武之地。
RAG是一個框架,用于構建使用外部數據源的基于LLMs的系統。RAG使LLMs能夠訪問它在預培訓期間不會看到的數據,但這對于正確提供相關和準確的響應是必要的。RAG通過將NLP能力與外部知識相結合,使語言模型(如ChatGPT)能夠為特定領域的問題提供更好的答案,從而減少產生不準確信息或“幻覺”的情況。它通過以下方式實現這一點:
•從外部知識來源檢索相關信息,如大規模文獻收藏、數據庫或互聯網。相關性基于對用戶問題的語義相似度(例如,使用余弦相似度來衡量)。
•將檢索到的信息增加到提示中的原始問題(為回答問題提供有用的上下文),并將其傳遞給LLMs,以便它可以產生更知情、與上下文相關和更準確的回答。
這種方法使LLMs在不同的領域和應用程序中更加通用和有用,包括問題回答、內容創建和訪問實時數據的交互式對話。播客應用Podurama也利用類似的技術來構建其AI支持的推薦聊天機器人。這些機器人熟練地根據用戶的提問推薦相關節目,從播客文字記錄中汲取見解來完善他們的推薦。
這種方法在危機管理中也很有價值。SaaS事件響應平臺PagerDuty使用LLMs來使用標題、嚴重性或其他因素等基本數據生成事件摘要,并使用內部Slack Data?對其進行增強,響應者可以在LLMs中討論細節并共享故障排除更新,以提高摘要的質量。
雖然RAG可能看起來很復雜,但LangChain庫為開發人員提供了實現RAG和構建復雜問答系統所需的工具。(在許多情況下,你只需要一行代碼即可開始)。LangChain是一個強大的庫,可以通過提供對外部數據源的訪問或連接到其他應用程序的現有API來增強和增強LLMs在運行時的性能。
當與開源LLMs(如Llama 2或Bloom)結合使用時,RAG成為處理機密文檔的一種非常強大的架構。特別有趣的是,LangChain擁有120多個集成(在撰寫本文時),支持與SQL、PDF、代碼片段甚至YouTube視頻的無縫集成。
2.將LLMs連接到外部應用程序
與利用外部數據源非常相似,LLMs可以與為特定任務量身定做的外部應用程序建立連接。當模型偶爾會因為過時的信息而產生不準確時,這一點尤為重要。例如,在詢問英國現任首相時,ChatGPT可能會繼續提到鮑里斯·約翰遜,盡管他已于2022年底離任。這一限制的產生是因為模型的知識是固定在其培訓前階段,并不包括培訓后事件,如Rishi Sunak的任命。
為了應對這些挑戰,可以通過代理將LLMs與外部世界相結合來增強它們。這些代理用于緩解LLMs固有的互聯網接入不足,允許它們使用天氣API(用于實時天氣數據)或SerpAPI(用于網絡搜索)等工具。Expedia的聊天機器人就是一個明顯的例子,它可以引導用戶發現和預訂酒店,回答有關住宿的問題,并提供個性化的旅行建議。
另一個引人入勝的應用涉及自動實時標記帶有特定屬性的推文,如情緒、攻擊性和語言。從營銷和廣告的角度來看,連接到電子商務工具的代理商可以幫助LLMs根據用戶興趣和內容推薦產品或套餐。
3.鏈接LLMs
對于大多數應用程序,LLMs通常是單獨使用的。然而,最近LLMs鏈接在復雜應用中獲得了吸引力。它涉及按順序鏈接多個LLMs以執行更復雜的任務。每個LLMs在一個特定的方面都有專長,他們相互協作,以產生全面和精細化的產出。
這種方法已經被應用于語言翻譯中,其中連續使用LLMs將文本從一種語言轉換成另一種語言。像微軟這樣的公司已經提議在低資源語言的情況下為翻譯服務提供LLMs鏈,從而實現對罕見單詞的更準確和上下文感知的翻譯。
這種方法還可以在其他領域提供幾個有價值的用例。對于面向消費者的公司,LLMs鏈接可以創建動態的客戶支持體驗,從而增強客戶互動、服務質量和運營效率。
例如,第一個LLMs可以對客戶查詢進行分類并將其分類,將它們傳遞給專門的LLMs以獲得更準確的響應。在制造業中,物流鏈可以通過鏈接專門的物流鏈來優化端到端的供應鏈流程,以進行需求預測、庫存管理、供應商選擇和風險評估。
4.使用LLMs提取實體
在LLMs出現之前,實體提取依賴于涉及數據收集、標記和復雜模型訓練的勞動密集型ML方法。這一過程既繁瑣又耗費資源。然而,隨著LLMs的出現,這種模式發生了變化。現在,實體提取被簡化為僅僅是提示,用戶可以毫不費力地查詢模型以從文本中提取實體。更有趣的是,當從PDF之類的非結構化文本中提取實體時,你甚至可以在提示符中定義感興趣的架構和屬性。
潛在的例子包括金融機構可以利用LLMs從新聞文章中提取關鍵的金融實體,如公司名稱、股票代碼和金融數字,從而實現及時和準確的市場分析。同樣,廣告/營銷機構可以使用它來管理其數字資產,方法是采用LLMs驅動的實體提取來對廣告劇本、演員、位置和日期進行分類,從而促進高效的內容索引和資產重用。
5.通過反應提示提高LLMs的透明度
雖然收到LLMs的直接回復無疑是有價值的,但黑匣子方法的不透明經常引起用戶的猶豫。此外,當面對對復雜查詢的不準確響應時,準確地確定失敗的步驟變得具有挑戰性。系統地分解這一過程可以極大地幫助調試過程。這正是原因和行動(Reaction)框架發揮作用的地方,為這些挑戰提供了解決方案。
Reaction強調一步一步的推理,讓LLMs像人類一樣生成解決方案。目標是讓模型像人類一樣思考任務,并使用語言解釋其推理。人們可以很容易地操作這種方法,因為生成反應提示是一項簡單的任務,涉及人類注釋員用自然語言表達他們的想法,以及他們執行的相應操作。只有少數幾個這樣的例子,該模型學會了很好地對新任務進行泛化。
受這一框架的啟發,許多教育技術公司正在試行工具,為學習者提供個性化的課程作業和作業幫助,以及教師AI支持的課程計劃。為此,可汗學院開發了KhanMico,這是一個聊天機器人,旨在指導學生完成數學問題和編程練習。Khanmio不只是根據要求提供答案,而是通過引導學生完成推理過程來鼓勵深思熟慮的問題解決。這種方法不僅有助于防止抄襲,而且使學生能夠獨立掌握概念。
結論
雖然關于AI取代人類的潛力或最終實現技術奇點的辯論可能仍在進行中(正如AI教父杰弗里·辛頓所預測的那樣),但有一件事是肯定的:LLMs無疑將在加快一系列領域中各種任務的完成方面發揮關鍵作用。它們有能力提高效率、培養創造力和改進決策過程,同時簡化復雜的任務。
對于擔任各種技術角色的專業人士,如數據科學家、軟件開發人員和產品所有者,LLMs可以提供寶貴的工具來簡化工作流程、收集見解并釋放新的可能性。
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。