作者:愛吃牛油果的璐璐[1]
前沿
最近AI圈很火的一個話題就是AI Agent了!AI創(chuàng)投圈也在密切關注著相關創(chuàng)業(yè)公司的進展。很多人說大模型都沒搞明白,又來了個AI Agent…... 但是別擔心Agent目前也是在起始階段。
AI Agent能力其實是和大模型相生的,大模型的能力邊界還是決定了AI Agent的能力邊界。
最近,復旦大學,斯坦福大學都發(fā)表了對AI AGENT的看法和認識。
研究背景
早在 1950 年代,Alan Turing 就將「智能」的概念擴展到了人工實體,并提出了著名的圖靈測試。這些人工智能實體通常被稱為 —— 代理(Agent)?!复怼惯@一概念起源于哲學,描述了一種擁有欲望、信念、意圖以及采取行動能力的實體。斯坦福大學的一篇名為《Generative Agents: Interactive Simulacra of Human Behavior,titled[2]》的論文深入研究了記憶、反應和計劃的AI Agent。
什么是AI Agent
AI Agent 被認為是 OpenAI 發(fā)力的下一個方向。OpenAI 聯合創(chuàng)始人 Andrej Karpathy 在近期的公開活動上說 “ 相比模型訓練方法,OpenAI 內部目前更關注 Agent 領域的變化,每當有新的 AI Agents 論文出來的時候,內部都會很興奮并且認真地討論 ” 。
在人工智能領域,這一術語被賦予了一層新的含義:具有自主性、反應性、積極性和社交能力特征的智能實體。
AI Agent,它被設計為具有獨立思考和行動能力的AI程序。你只需要提供一個目標,比如寫一個游戲、開發(fā)一個網頁,他就會根據環(huán)境的反應和獨白的形式生成一個任務序列開始工作。就好像是人工智能可以自我提示反饋,不斷發(fā)展和適應,以盡可能最好的方式來實現你給出的目標。
NLP 到 AGI 的發(fā)展路線
NLP 到 AGI 的發(fā)展路線分為五級:語料庫、互聯網、感知、具身和社會屬性,那么目前的大型語言模型已經來到了第二級,具有互聯網規(guī)模的文本輸入和輸出。在這個基礎上,如果賦予 LLM-based Agents 感知空間和行動空間,它們將達到第三、第四級。進一步地,多個代理通過互動、合作解決更復雜的任務,或者反映出現實世界的社會行為,則有潛力來到第五級 —— 代理社會。
?
為什么需要AI Agent
為什么大語言模型(LLM)剛流行不久,就需要AI Agent呢?LLM與LangChain 等工具相結合,釋放了內容生成、編碼和分析方面的多種可能性,目前在ChatGPT插件中比較有代表性的插件就是code interpreter。在這方面的應用上Agent的概念應用發(fā)揮著舉足輕重的作用。
這里可以將Agent視為人工智能大腦,它使用LLM進行推理、計劃和采取行動。
語言模型 (LLM) 僅限于它們所訓練的知識,并且這些知識很快就會過時。(每天用最新信息重新訓練這么大的模型是不可行的。)
LLM的一些缺點
會產生幻覺。
結果并不總是真實的。
對時事的了解有限或一無所知。
很難應對復雜的計算。
這就是AI Agent的用武之地,它可以利用外部工具來克服這些限制。
這里的工具是什么呢?工具就是代理用它來完成特定任務的一個插件、一個集成API、一個代碼庫等等,例如:
Google搜索:獲取最新信息
Python REPL:執(zhí)行代碼
Wolfram:進行復雜的計算
外部API:獲取特定信息
而LangChain則是提供一種通用的框架通過大語言模型的指令來輕松地實現這些工具的調用。AI Agent的誕生就是為了處理各種復雜任務的,就復雜任務的處理流程而言AI Agent主要分為兩大類:行動類、規(guī)劃執(zhí)行類。
智能代理的框架
LLM-based Agent[3] 的概念框架,包含三個組成部分:控制端(Brain)、感知端(Perception)和行動端(Action)。下面將分別介紹:
?
控制端:Brain
是智能代理的核心。它不僅可以存儲記憶和知識,還承擔著信息處理、決策等不可或缺的功能。它可以呈現推理和計劃的過程,并很好地應對未知任務,反映出智能代理的泛化性和遷移性。控制端作為智能代理最核心的組成成分,作者們從五個方面展開介紹其能力:
自然語言交互:語言是溝通的媒介,其中包含著豐富的信息。得益于 LLMs 強大的自然語言生成和理解能力,智能代理能夠通過自然語言與外界進行多輪交互,進而實現目標。具體而言,可以分為兩個方面:
高質量文本生成:大量評估實驗表明,LLMs 能夠生成流暢、多樣、新穎、可控的文本。盡管在個別語言上表現欠佳,但整體上具備良好的多語言能力。
言外之意的理解:除了直觀表現出的內容,語言背后可能還傳遞了說話者的意圖、偏好等信息。言外之意有助于代理更高效地溝通與合作,大模型已經展現出了這方面的潛力。
知識:基于大批量語料訓練的 LLMs,擁有了存儲海量知識(Knowledge)的能力。除了語言知識以外,常識知識和專業(yè)技能知識都是 LLM-based Agents 的重要組成部分。
雖然 LLMs 其本身仍然存在知識過期、幻覺等問題,現有的一些研究通過知識編輯或調用外部知識庫等方法,可以在一定程度上得到緩解。
記憶:在本文框架中,記憶模塊(Memory)儲存了代理過往的觀察、思考和行動序列。通過特定的記憶機制,代理可以有效地反思并應用先前的策略,使其借鑒過去的經驗來適應陌生的環(huán)境。
短期記憶:我認為所有的上下文學習(參見提示工程)都是利用模型的短期記憶來學習。
長期記憶:這為代理提供了長時間保留和回憶(無限)信息的能力,通常是通過利用外部向量存儲和快速檢索。
通常用于提升記憶能力的方法有三種:
擴展 Backbone 架構的長度限制:針對 Transformers 固有的序列長度限制問題進行改進。
總結記憶(Summarizing):對記憶進行摘要總結,增強代理從記憶中提取關鍵細節(jié)的能力。
壓縮記憶(Compressing):通過使用向量或適當的數據結構對記憶進行壓縮,可以提高記憶檢索效率。
此外,記憶的檢索方法也很重要,只有檢索到合適的內容,代理才能夠訪問到最相關和準確的信息。
推理 & 規(guī)劃:推理能力(Reasoning)對于智能代理進行決策、分析等復雜任務而言至關重要。具體到 LLMs 上,就是以 思維鏈(Chain-of-Thought,CoT) 為代表的一系列提示方法。而規(guī)劃(Planning)則是面對大型挑戰(zhàn)時常用的策略。它幫助代理組織思維、設定目標并確定實現這些目標的步驟。在具體實現中,規(guī)劃可以包含兩個步驟:
計劃制定(Plan Formulation):代理將復雜任務分解為更易于管理的子任務。例如:一次性分解再按順序執(zhí)行、逐步規(guī)劃并執(zhí)行、多路規(guī)劃并選取最優(yōu)路徑等。在一些需要專業(yè)知識的場景中,代理可與特定領域的 Planner 模塊集成,提升能力。
計劃反思(Plan Reflection):在制定計劃后,可以進行反思并評估其優(yōu)劣。這種反思一般來自三個方面:借助內部反饋機制;與人類互動獲得反饋;從環(huán)境中獲得反饋。
遷移性 & 泛化性:擁有世界知識的 LLMs 賦予智能代理具備強大的遷移與泛化能力。一個好的代理不是靜態(tài)的知識庫,還應具備動態(tài)的學習能力:
對未知任務的泛化:隨著模型規(guī)模與訓練數據的增大,LLMs 在解決未知任務上涌現出了驚人的能力。通過指令微調的大模型在 zero-shot 測試中表現良好,在許多任務上都取得了不亞于專家模型的成績。
情景學習(In-context Learning):大模型不僅能夠從上下文的少量示例中進行類比學習,這種能力還可以擴展到文本以外的多模態(tài)場景,為代理在現實世界中的應用提供了更多可能性。
持續(xù)學習(Continual Learning):持續(xù)學習的主要挑戰(zhàn)是災難性遺忘,即當模型學習新任務時容易丟失過往任務中的知識。專有領域的智能代理應當盡量避免丟失通用領域的知識。
感知端:Perception
多模態(tài)感知能加深代理對工作環(huán)境的理解,顯著提升了其通用性。
文本輸入:作為 LLMs 最基礎的能力,這里不再贅述。
視覺輸入:LLMs 本身并不具備視覺的感知能力,只能理解離散的文本內容。而視覺輸入通常包含有關世界的大量信息,包括對象的屬性,空間關系,場景布局等等。常見的方法有:
將視覺輸入轉為對應的文本描述(Image Captioning):可以被 LLMs 直接理解,并且可解釋性高。
對視覺信息進行編碼表示:以視覺基礎模型 + LLMs 的范式來構成感知模塊,通過對齊操作來讓模型理解不同模態(tài)的內容,可以端到端的方式進行訓練。
聽覺輸入:聽覺也是人類感知中的重要組成部分。由于 LLMs 有著優(yōu)秀的工具調用能力,一個直觀的想法就是:代理可以將 LLMs 作為控制樞紐,通過級聯的方式調用現有的工具集或者專家模型,感知音頻信息。此外,音頻也可以通過頻譜圖(Spectrogram)的方式進行直觀表示。頻譜圖可以作為平面圖像來展示 2D 信息,因此,一些視覺的處理方法可以遷移到語音領域。
其他輸入:現實世界中的信息遠不止文本、視覺和聽覺。作者們希望在未來,智能代理能配備更豐富的感知模塊,例如觸覺、嗅覺等器官,用于獲取目標物體更加豐富的屬性。同時,代理也能對周圍環(huán)境的溫度、濕度和明暗程度有清楚的感受,采取更 Environment-aware 的行動。
此外,還可以為代理引入對更廣闊的整體環(huán)境的感知:采用激光雷達、GPS、慣性測量單元等成熟的感知模塊。
行動端:Action
在大腦做出分析、決策后,代理還需要做出行動以適應或改變環(huán)境:
文本輸出:作為 LLMs 最基礎的能力,這里不再贅述。
工具使用:盡管 LLMs 擁有出色的知識儲備和專業(yè)能力,但在面對具體問題時,也可能會出現魯棒性問題、幻覺等一系列挑戰(zhàn)。與此同時,工具作為使用者能力的擴展,可以在專業(yè)性、事實性、可解釋性等方面提供幫助。例如,可以通過使用計算器來計算數學問題、使用搜索引擎來搜尋實時信息。
另外,工具也可以擴展智能代理的行動空間。例如,通過調用語音生成、圖像生成等專家模型,來獲得多模態(tài)的行動方式。因此,如何讓代理成為優(yōu)秀的工具使用者,即學會如何有效地利用工具,是非常重要且有前景的方向。
目前,主要的工具學習方法包括從演示中學習和從反饋中學習。此外,也可以通過元學習、課程學習等方式來讓代理程序在使用各種工具方面具備泛化能力。更進一步,智能代理還可以進一步學習如何「自給自足」地制造工具,從而提高其自主性和獨立性。
具身行動:具身(Embodyment)是指代理與環(huán)境交互過程中,理解、改造環(huán)境并更新自身狀態(tài)的能力。具身行動(Embodied Action)被視為虛擬智能與物理現實的互通橋梁。
傳統(tǒng)的基于強化學習的 Agent 在樣本效率、泛化性和復雜問題推理等方面存在局限性,而 LLM-based Agents 通過引入大模型豐富的內在知識,使得 Embodied Agent 能夠像人類一樣主動感知、影響物理環(huán)境。根據代理在任務中的自主程度或者說 Action 的復雜程度,可以有以下的原子 Action:
Observation 可以幫助智能代理在環(huán)境中定位自身位置、感知對象物品和獲取其他環(huán)境信息;
Manipulation 則是完成一些具體的抓取、推動等操作任務;
Navigation 要求智能代理根據任務目標變換自身位置并根據環(huán)境信息更新自身狀態(tài)。
通過組合這些原子行動,代理可以完成更為復雜的任務。例如「廚房的西瓜比碗大嗎?」這類具身的 QA 任務。為了解決這個問題,代理需要導航到廚房,并在觀察二者的大小后得出答案。
智能代理的應用場景
LLM-based Agent 的三種應用范式:單代理、多代理、人機交互。
單代理場景
可以接受人類自然語言命令,執(zhí)行日常任務的智能代理目前備受用戶青睞,具有很高的現實使用價值。作者們首先在單智能代理的應用場景中,闡述了其多樣化的應用場景與對應能力。
在論文中,單智能代理的應用被劃分為如下三個層次:
?
單代理應用場景的三個層次:任務導向、創(chuàng)新導向、生命周期導向。
在任務導向的部署中,代理幫助人類用戶處理日?;救蝿铡K鼈冃枰邆浠镜闹噶罾斫?、任務分解、與環(huán)境交互的能力。具體來說,根據現有的任務類型,代理的實際應用又可以分為模擬網絡環(huán)境與模擬生活場景。
在創(chuàng)新導向的部署中,代理能夠在前沿科學領域展現出自主探究的潛力。雖然來自專業(yè)領域的固有復雜性和訓練數據的缺乏給智能代理的構建帶來了阻礙,但目前已經有許多工作在化學、材料、計算機等領域取得了進展。
在生命周期導向的部署中,代理具備在一個開放世界中不斷探索、學習和使用新技能,并長久生存的能力。在本節(jié)中,作者們以《我的世界》游戲為例展開介紹。由于游戲中的生存挑戰(zhàn)可以被認為是現實世界的一個縮影,已經有許多研究者將其作為開發(fā)和測試代理綜合能力的獨特平臺。
多代理場景
多代理應用場景的兩種交互形式:合作型互動、對抗型互動。
合作型互動:作為實際應用中部署最為廣泛的類型,合作型的代理系統(tǒng)可以有效提高任務效率、共同改進決策。具體來說,根據合作形式的不同,作者們又將合作型互動細分為無序合作與有序合作。
當所有代理自由地表達自己的觀點、看法,以一種沒有順序的方式進行合作時,稱為無序合作。
當所有代理遵循一定的規(guī)則,例如以流水線的形式逐一發(fā)表自己的觀點時,整個合作過程井然有序,稱為有序合作。
對抗型互動:智能代理以一種針鋒相對(tit for tat)的方式進行互動。通過競爭、談判、辯論的形式,代理拋棄原先可能錯誤的信念,對自己的行為或者推理過程進行有意義的反思,最終帶來整個系統(tǒng)響應質量的提升。
人機交互場景
?
人機交互場景的的兩種模式:Instructor-Executor 模式 vs. Equal Partnership 模式。
Instructor-Executor 模式:人類作為指導者,給出指令、反饋意見;而代理作為執(zhí)行者,依據指示逐步調整、優(yōu)化。這種模式在教育、醫(yī)療、商業(yè)等領域得到了廣泛的應用。
Equal Partnership 模式:有研究觀察到代理能夠在與人類的交流中表現出共情能力,或是以平等的身份參與到任務執(zhí)行中。智能代理展現出在日常生活中的應用潛力,有望在未來融入人類社會。
AI Agent 一覽表
開放性問題討論
智能代理與大語言模型的研究該如何互相促進、共同發(fā)展?
大模型在語言理解、決策制定以及泛化能力等方面展現出強大的潛力,成為代理構建過程中的關鍵角色,而代理的進展也為大模型提出了更高的要求。
LLM-based Agents 會帶來哪些挑戰(zhàn)與隱憂?
智能代理能否真正落地,需要經過嚴謹的安全性評估,避免對真實世界帶來危害。作者總結了更多潛在威脅,例如:非法濫用、失業(yè)風險、對人類福祉造成影響等等。
代理數量的提升(scaling up)會帶來哪些機遇和挑戰(zhàn)?
在模擬社會中,提升個體數量可以顯著提升模擬的可信度與真實性。然而,隨著代理數量的上升,通信與消息傳播問題會變得相當復雜,信息的失真、誤解或者幻覺現象都會顯著降低整個模擬系統(tǒng)的效率。
網絡上關于 LLM-based Agent 是否是通向 AGI 的合適道路的爭論。
有研究者認為,以 GPT-4 為代表的大模型已經在足夠的語料上進行了訓練,在此基礎上構建的代理有潛力成為打開 AGI 之門的鑰匙。但也有其他研究者認為,自回歸語言建模(Auto-regressive Language Modeling)并不能顯現出真正的智能,因為它們只是作出響應。一個更完備的建模方式,例如世界模型(World Model),才能通向 AGI。
群體智能的演化歷程。群體智能是一種集結眾人的意見進而轉化為決策的過程。
然而,一味通過增加代理的數量,是否會產生真正的「智能」?此外,如何協(xié)調單個代理,讓智能代理社會克服「團體迷思」和個人認知偏差?
代理即服務(Agent as a Service,AaaS)。
由于 LLM-based Agents 比大模型本身更加復雜,中小型企業(yè)或個人更加難在本地構建,因此云廠商可以考慮以服務的形式來將智能代理落地,即 Agent-as-a-Service。就像其他的云服務一樣,AaaS 有潛力為用戶提供高靈活性和按需的自助服務。
審核編輯:黃飛
?
評論
查看更多