1. LLM作為知識寶庫:LLM基于海量的互聯網數據進行訓練,并定期更新(即GPT-3、GPT-3.5、GPT-4、GPT-4o等)。
2. 涌現能力:隨著LLM的發展,它們展現出小型模型中不具備的能力。
這是否意味著我們已經達到了人類水平的智能,即我們所說的AGI?Gartner將AGI定義為一種能夠在廣泛的任務和領域中理解、學習和應用知識的AI形式。通往AGI的道路還很漫長,其中一個關鍵障礙是LLM訓練的自回歸性質,這種性質基于過去的序列來預測單詞。作為AI研究的先驅之一,Yann LeCun指出,由于自回歸性質,LLM可能會偏離準確答案,因此,LLM存在幾個局限性:
• 知識有限:盡管訓練數據龐大,但LLM缺乏最新的世界知識。
• 推理能力有限:LLM的推理能力有限,如Subbarao Kambhampati所指,LLM是優秀的知識檢索者,但不是優秀的推理者。
• 缺乏動態性:LLM是靜態的,無法訪問實時信息。
為了克服LLM的挑戰,需要一種更先進的方法,這就是智能體變得至關重要的地方。
智能體來救場
AI中智能體的概念已經發展了二十多年,其實施方式也隨時間而變化。如今,人們在LLM的語境下討論智能體。簡而言之,智能體就像是應對LLM挑戰的瑞士軍刀:它可以幫助我們進行推理,提供從互聯網獲取最新信息的手段(解決LLM的動態性問題),并且可以自主地完成任務。以LLM為支柱,智能體正式包含工具、記憶、推理(或規劃)和行動組件。
AI智能體的組件
• 工具使智能體能夠訪問外部信息,無論是來自互聯網、數據庫還是API,從而收集必要的數據。
• 記憶可以是短期的或長期的。智能體使用暫存記憶來暫時保存來自各種來源的結果,而聊天歷史則是長期記憶的一個例子。
• 推理器使智能體能夠有條不紊地思考,將復雜任務分解為可管理的子任務,以便有效處理。
• 行動:智能體根據其環境和推理結果采取行動,通過反饋迭代地適應和解決問題。ReAct是迭代執行推理和行動的常用方法之一。
智能體擅長什么?
智能體在處理復雜任務時表現出色,尤其是在角色扮演模式下,能夠利用LLM增強的性能。例如,在撰寫博客時,一個智能體可能專注于研究,而另一個則負責寫作——每個智能體都處理一個特定的子目標,這種多智能體方法適用于許多現實問題。
角色扮演有助于智能體專注于特定任務以實現更大的目標,通過明確定義提示的各個部分(如角色、指令和上下文)來減少幻覺。由于LLM的性能取決于結構良好的提示,因此各種框架都將這一過程形式化。接下來我們將討論這樣一個框架——CrewAI,它提供了一種結構化的方法來定義角色扮演。
多智能體與單智能體
以使用單智能體的檢索增強生成(RAG)為例,這是一種有效的方法,通過利用索引文檔中的信息來增強LLM處理特定領域查詢的能力,然而,單智能體RAG也有其自身的局限性,如檢索性能或文檔排名。多智能體RAG通過為文檔理解、檢索和排名部署專用智能體來克服這些局限性。
在多智能體場景中,智能體以不同的方式協作,類似于分布式計算模式:順序、集中、分散或共享消息池。CrewAI、Autogen和langGraph+langChain等框架支持通過多智能體方法解決復雜問題。在本文中,我使用CrewAI作為參考框架來探索自主工作流管理。
工作流管理:多智能體系統的一個用例
大多數工業流程都涉及工作流管理,無論是貸款處理、營銷活動管理還是DevOps。實現特定目標需要順序或循環的步驟。在傳統方法中,每個步驟(例如貸款申請驗證)都需要人工來執行繁瑣且單調的任務,即手動處理每個申請并進行驗證,然后再進入下一步。
每個步驟都需要該領域專家的輸入。在使用CrewAI的多智能體設置中,每個步驟都由一個由多個智能體組成的團隊來處理。例如,在貸款申請驗證中,一個智能體可能通過背景檢查(如駕駛證等文件)來驗證用戶的身份,而另一個智能體則驗證用戶的財務信息。
這就引出了一個問題:一個團隊(包含多個順序或層級結構的智能體)能否處理所有貸款處理步驟?雖然理論上可行,但這會使團隊變得復雜,需要大量的臨時記憶,并增加目標偏離和幻覺的風險。一種更有效的方法是將每個貸款處理步驟視為一個獨立的團隊,將整個工作流視為一個團隊節點圖(使用langGraph等工具)順序或循環運行。
由于LLM仍處于智能發展的早期階段,因此無法完全自主地管理整個工作流。在關鍵階段需要人工參與進行最終用戶驗證。例如,在團隊完成貸款申請驗證步驟后,需要人工監督來驗證結果。隨著時間的推移,隨著對AI的信任增加,某些步驟可能會變得完全自主。目前,基于AI的工作流管理起著輔助作用,簡化了繁瑣的任務并減少了整體處理時間。
生產挑戰
將多智能體解決方案投入生產可能會面臨幾個挑戰。
• 規模:隨著智能體數量的增加,協作和管理變得具有挑戰性。各種框架提供了可擴展的解決方案——例如,Llamaindex采用事件驅動的工作流來大規模管理多智能體。
• 延遲:由于任務迭代執行,需要多次調用LLM,因此智能體性能往往會產生延遲。受管理的LLM(如GPT-4o)由于隱式護欄和網絡延遲而速度較慢。自托管的LLM(具有GPU控制)在解決延遲問題方面非常有用。
• 性能和幻覺問題:由于LLM的概率性質,智能體的性能可能會因每次執行而異。像輸出模板化(例如JSON格式)和在提示中提供充足示例等技術有助于減少響應的可變性。通過訓練智能體可以進一步減少幻覺問題。
最后的思考
正如Andrew Ng所指出的,智能體是AI的未來,并將與LLM一起不斷發展。多智能體系統將在處理多模態數據(文本、圖像、視頻、音頻)和應對日益復雜的任務方面取得進展。雖然AGI和完全自主的系統仍在未來,但多智能體將填補LLM和AGI之間的當前空白。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。