精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型應(yīng)用之路:從提示詞到通用人工智能(AGI)

京東云 ? 來(lái)源:jf_75140285 ? 作者:jf_75140285 ? 2024-06-14 10:20 ? 次閱讀

大模型在人工智能領(lǐng)域的應(yīng)用正迅速擴(kuò)展,從最初的提示詞(Prompt)工程到追求通用人工智能(AGI)的宏偉目標(biāo),這一旅程充滿了挑戰(zhàn)與創(chuàng)新。本文將探索大模型在實(shí)際應(yīng)用中的進(jìn)展,以及它們?nèi)绾螢閷?shí)現(xiàn)AGI鋪平道路。

基于AI大模型的推理功能,結(jié)合了RAG(檢索增強(qiáng)生成)、智能體(Agent)、知識(shí)庫(kù)、向量數(shù)據(jù)庫(kù)、知識(shí)圖譜等先進(jìn)技術(shù),我們向?qū)崿F(xiàn)真正的AGI(通用人工智能)邁出了重要步伐。

為了方便大家理解,將AI大模型視作類比人類大腦的存在,我們與之交互,仿佛是在與一個(gè)能夠理解并使用人類語(yǔ)言的智能體溝通。這樣的AI大模型能夠接收信息、生成回應(yīng),并且提供答案。然而,就像人類也會(huì)犯錯(cuò)一樣,AI大模型提供的答案也可能不完全準(zhǔn)確。下面分別對(duì)提示詞工程,RAG,AI Agent, Fine-tuning,F(xiàn)unction calling ,知識(shí)庫(kù),知識(shí)圖譜等應(yīng)用進(jìn)行詳細(xì)介紹。

一、提示詞工程(Prompt Engineering)

提示詞工程涉及設(shè)計(jì)和使用特定的提示詞或問(wèn)題構(gòu)造來(lái)引導(dǎo)語(yǔ)言模型生成期望的輸出或執(zhí)行特定的任務(wù)。提示詞就像是給AI的一把鑰匙,用來(lái)開(kāi)啟特定知識(shí)寶庫(kù)的大門(mén)。

Prompt = 角色 + 任務(wù) + 要求 + 細(xì)節(jié)【步驟拆解、范例說(shuō)明,技巧點(diǎn)撥等】

wKgZomZrqM6AVMZZAADa75cpBWs825.png

?

提示詞看起來(lái)很簡(jiǎn)單,給出一句話,大模型就會(huì)給出問(wèn)題響應(yīng),但要想大模型精準(zhǔn)回復(fù)問(wèn)題,是自己想要的答案,還需要有結(jié)構(gòu)化的提示詞知識(shí)。

1.1 結(jié)構(gòu)化Prompt

結(jié)構(gòu)化Prompt是一種預(yù)定義的輸入格式,它指導(dǎo)AI對(duì)話系統(tǒng)以特定的方式理解和響應(yīng)用戶的查詢。與傳統(tǒng)的自由形式的Prompt相比,結(jié)構(gòu)化Prompt通過(guò)提供清晰的指令和格式要求,幫助AI更準(zhǔn)確地捕捉用戶的意圖。

1.2 結(jié)構(gòu)化Prompt的重要性

1.提高理解力:結(jié)構(gòu)化Prompt通過(guò)明確的指令幫助AI更好地理解用戶的查詢意圖。

2.增強(qiáng)一致性:它們確保了對(duì)話的一致性,因?yàn)锳I會(huì)以相同的方式處理類似的查詢。

3.提升效率:結(jié)構(gòu)化的數(shù)據(jù)更容易被AI處理,從而提高了對(duì)話系統(tǒng)的整體效率。

4.減少歧義:它們減少了用戶的輸入歧義,降低了AI誤解用戶意圖的可能性。

1.3 如何設(shè)計(jì)結(jié)構(gòu)化Prompt

1.明確目標(biāo):在設(shè)計(jì)Prompt之前,明確你希望AI執(zhí)行的任務(wù)或回答的問(wèn)題類型。

2.使用清晰的語(yǔ)法:確保Prompt使用簡(jiǎn)單、明確的語(yǔ)法,避免模糊或復(fù)雜的句子結(jié)構(gòu)。

3.包含關(guān)鍵信息:確保Prompt包含了完成任務(wù)所需的所有關(guān)鍵信息。

4.測(cè)試和迭代:設(shè)計(jì)完成后,通過(guò)測(cè)試來(lái)驗(yàn)證Prompt的有效性,并根據(jù)反饋進(jìn)行迭代。

1.4 構(gòu)建結(jié)構(gòu)化Prompt的要素

結(jié)構(gòu)化Prompt涉及多個(gè)關(guān)鍵部分:

1.角色定義(# Role):明確AI角色,增強(qiáng)特定領(lǐng)域的信息輸出。

2.作者信息(## Profile):包括作者、版本和描述,增加信息的可信度。

3.目標(biāo)設(shè)定(## Goals):一句話明確Prompt的目的。

4.限制條件(## Constrains):幫助AI“剪枝”,避免無(wú)效的信息分支。

5.技能描述(## Skills):強(qiáng)化AI在特定領(lǐng)域的知識(shí)和能力。

6.工作流程(## Workflow):指導(dǎo)AI如何交流和輸出信息。

7.初始化對(duì)話(# Initialization):開(kāi)始時(shí)的對(duì)話,重申關(guān)注的重點(diǎn)。

?

二、RAG與知識(shí)庫(kù)

RAG即Retrieval-Augmented Generation,是一種結(jié)合檢索和生成技術(shù)的模型。它通過(guò)引用外部知識(shí)庫(kù)的信息來(lái)生成答案或內(nèi)容,具有較強(qiáng)的可解釋性和定制能力,適用于問(wèn)答系統(tǒng)、文檔生成、智能助手等多個(gè)自然語(yǔ)言處理任務(wù)中。RAG模型的優(yōu)勢(shì)在于通用性強(qiáng)、可實(shí)現(xiàn)即時(shí)的知識(shí)更新,以及通過(guò)端到端評(píng)估方法提供更高效和精準(zhǔn)的信息服務(wù)。

為什么要用 RAG,因?yàn)榇竽P停↙LM)的知識(shí)存在固有缺陷:

?知識(shí)不新:由于訓(xùn)練的時(shí)間和成本,大模型的知識(shí)往往是舊的,如 GPT-4 Turbo 的知識(shí)庫(kù)截至?xí)r間是 2023 年 4 月

?知識(shí)不全:缺少專業(yè)的領(lǐng)域知識(shí)或私有的業(yè)務(wù)知識(shí)

2.1 RAG架構(gòu)

RAG的工作原理是通過(guò)檢索大規(guī)模文檔集合中的相關(guān)信息,然后利用這些信息來(lái)指導(dǎo)文本的生成,從而提高預(yù)測(cè)的質(zhì)量和準(zhǔn)確性。

?

wKgaomZrqM-AN1XeAAGWqrLlZEQ986.png

?

RAG = LLM+知識(shí)庫(kù)

具體而言,RAG通過(guò)三個(gè)關(guān)鍵部分實(shí)現(xiàn)工作:檢索、利用和生成。在檢索階段,系統(tǒng)會(huì)從文檔集合中檢索相關(guān)信息;在利用階段,系統(tǒng)會(huì)利用這些檢索到的信息來(lái)填充文本或回答問(wèn)題;最后在生成階段,系統(tǒng)會(huì)根據(jù)檢索到的知識(shí)來(lái)生成最終的文本內(nèi)容。

wKgaomZrqNKAKQ2pAAhuHXzB3j4556.png

通過(guò)這一過(guò)程,RAG模型能夠在各種自然語(yǔ)言處理任務(wù)中發(fā)揮作用,如問(wèn)答系統(tǒng)、文檔生成和自動(dòng)摘要、智能助手和虛擬代理、信息檢索以及知識(shí)圖譜填充等。同時(shí),RAG模型具有及時(shí)更新、解釋性強(qiáng)、高度定制能力、安全隱私管理以及減少訓(xùn)練成本等優(yōu)點(diǎn)。與微調(diào)相比,RAG是通用的,適用于多種任務(wù),并且能夠?qū)崿F(xiàn)即時(shí)的知識(shí)更新而無(wú)需重新訓(xùn)練模型。

?

2.2 知識(shí)庫(kù)介紹

對(duì)于企業(yè)而言,構(gòu)建一個(gè)符合自身業(yè)務(wù)需求的知識(shí)庫(kù)是至關(guān)重要的。通過(guò)RAG、微調(diào)等技術(shù)手段,我們可以將通用的大模型轉(zhuǎn)變?yōu)閷?duì)特定行業(yè)有著深度理解的“行業(yè)專家”,從而更好地服務(wù)于企業(yè)的具體業(yè)務(wù)需求。這樣的知識(shí)庫(kù)基本上適用于每個(gè)公司各行各業(yè),包括:市場(chǎng)調(diào)研知識(shí)庫(kù)、人力資源知識(shí)庫(kù)、項(xiàng)目管理知識(shí)庫(kù)、技術(shù)文檔知識(shí)庫(kù)、項(xiàng)目流程知識(shí)庫(kù)、招標(biāo)投標(biāo)知識(shí)庫(kù)等等。

知識(shí)庫(kù)的技術(shù)架構(gòu)分為兩部分:

第一、離線的知識(shí)數(shù)據(jù)向量化

?加載:通過(guò)文檔加載器(Document Loaders)加載數(shù)據(jù)/知識(shí)庫(kù)。

?拆分:文本拆分器將大型文檔拆分為較小的塊。便于向量或和后續(xù)檢索。

?向量:對(duì)拆分的數(shù)據(jù)塊,進(jìn)行 Embedding 向量化處理。

?存儲(chǔ):將向量化的數(shù)據(jù)塊存儲(chǔ)到向量數(shù)據(jù)庫(kù) VectorDB 中,方便進(jìn)行搜索。

wKgaomZrqNOAOWTHAAJf7cQL1-g660.png

?

第二、在線的知識(shí)檢索返回

?檢索:根據(jù)用戶輸入,使用檢索器從存儲(chǔ)中檢索相關(guān)的 Chunk。

?生成:使用包含問(wèn)題和檢索到的知識(shí)提示詞,交給大語(yǔ)言模型生成答案。

wKgZomZrqNSAUHfDAAHDrSQRX08899.png

?

2.3 RAG應(yīng)用場(chǎng)景

1.問(wèn)答系統(tǒng)(QA Systems):RAG可以用于構(gòu)建強(qiáng)大的問(wèn)答系統(tǒng),能夠回答用戶提出的各種問(wèn)題。它能夠通過(guò)檢索大規(guī)模文檔集合來(lái)提供準(zhǔn)確的答案,無(wú)需針對(duì)每個(gè)問(wèn)題進(jìn)行特定訓(xùn)練。

2.文檔生成和自動(dòng)摘要(Document Generation and Automatic Summarization):RAG可用于自動(dòng)生成文章段落、文檔或自動(dòng)摘要,基于檢索的知識(shí)來(lái)填充文本,使得生成的內(nèi)容更具信息價(jià)值。

3.智能助手和虛擬代理(Intelligent Assistants and Virtual Agents):RAG可以用于構(gòu)建智能助手或虛擬代理,結(jié)合聊天記錄回答用戶的問(wèn)題、提供信息和執(zhí)行任務(wù),無(wú)需進(jìn)行特定任務(wù)微調(diào)。

4.信息檢索(Information Retrieval):RAG可以改進(jìn)信息檢索系統(tǒng),使其更準(zhǔn)確深刻。用戶可以提出更具體的查詢,不再局限于關(guān)鍵詞匹配。

5.知識(shí)圖譜填充(Knowledge Graph Population):RAG可以用于填充知識(shí)圖譜中的實(shí)體關(guān)系,通過(guò)檢索文檔來(lái)識(shí)別和添加新的知識(shí)點(diǎn)。

三、智能體(AI Agent)

在 AI 大模型時(shí)代,任何具備獨(dú)立思考能力并能與環(huán)境進(jìn)行交互的實(shí)體,都可以被抽象地描述為智能體(Agent)。這個(gè)英文詞匯在 AI 領(lǐng)域被普遍采納,用以指代那些能夠自主活動(dòng)的軟件或硬件實(shí)體。在國(guó)內(nèi),我們習(xí)慣將其譯為“智能體”,盡管過(guò)去也曾出現(xiàn)過(guò)“代理”、“代理者”或“智能主體”等譯法。智能體構(gòu)建在大語(yǔ)言模型的推理能力基礎(chǔ)上,對(duì)大語(yǔ)言模型的 Planning 規(guī)劃的方案使用工具執(zhí)行(Action) ,并對(duì)執(zhí)行的過(guò)程進(jìn)行觀測(cè)(Observation),保證任務(wù)的落地執(zhí)行。

Agent一詞起源于拉丁語(yǔ)中的Agere,意思是“to do”。在LLM語(yǔ)境下,Agent可以理解為在某種能自主理解、規(guī)劃決策、執(zhí)行復(fù)雜任務(wù)的智能體。

AI Agent是由人工智能驅(qū)動(dòng)的程序,當(dāng)給定目標(biāo)時(shí),它們能夠自己創(chuàng)建任務(wù)、完成任務(wù)、創(chuàng)建新任務(wù)、重新確定任務(wù)列表的優(yōu)先級(jí)、完成新的頂級(jí)任務(wù),并循環(huán)直到達(dá)到目標(biāo)。

Agent = LLM+Planning+Tool use+Feedback

Agent 是讓 LLM 具備目標(biāo)實(shí)現(xiàn)的能力,并通過(guò)自我激勵(lì)循環(huán)來(lái)實(shí)現(xiàn)這個(gè)目標(biāo)。

?

3.1 PDCA思維模型

PDCA思維模型大家應(yīng)該都了解,我們可以把智能體執(zhí)行過(guò)程比作PDCA思維模型,我們可以將完成一項(xiàng)任務(wù)進(jìn)行拆解,按照作出計(jì)劃、計(jì)劃實(shí)施、檢查實(shí)施效果,然后將成功的納入標(biāo)準(zhǔn),不成功的留待下一循環(huán)去解決。目前,這是人們高效完成一項(xiàng)任務(wù)非常成功的經(jīng)驗(yàn)總結(jié)。

wKgaomZrqNaAW3-qAALfor5Isjw414.png

3.2 智能體架構(gòu)

PDCA 循環(huán)是人日常做事思維模型,大模型是否可以像人一樣,讓大模型代替人的工作。因而,智能體應(yīng)運(yùn)而生,讓大模型具備執(zhí)行能力。

要讓LLM替代人去做事,我們可以基于PDCA模型進(jìn)行規(guī)劃、執(zhí)行、評(píng)估和反思。

wKgZomZrqNeAc2T2AAGZG-2MFOM105.png

規(guī)劃能力(Plan):智能體(Agent)的大腦能夠?qū)?fù)雜的大任務(wù)細(xì)分為小的、可操作的子任務(wù),這種能力對(duì)于高效、有序地處理大型任務(wù)至關(guān)重要。

執(zhí)行能力(Do):智能體能學(xué)會(huì)在內(nèi)部知識(shí)不足時(shí)調(diào)用外部API,例如獲取實(shí)時(shí)信息、執(zhí)行代碼或訪問(wèn)專有知識(shí)庫(kù)。這需要構(gòu)建一個(gè)平臺(tái)加工具的生態(tài)系統(tǒng),鼓勵(lì)其他廠商提供更多工具組件,共同形成繁榮的生態(tài)系統(tǒng)。

評(píng)估能力(Check):任務(wù)執(zhí)行后,智能體需要判斷結(jié)果是否達(dá)到預(yù)期目標(biāo),并在出現(xiàn)異常時(shí)進(jìn)行分類、定位和原因分析。這種能力通常不是通用大模型所具備的,需要針對(duì)特定場(chǎng)景進(jìn)行定制化的小模型訓(xùn)練。

反思能力(Action):基于評(píng)估結(jié)果,智能體能夠及時(shí)結(jié)束任務(wù)或進(jìn)行歸因分析,總結(jié)成功的關(guān)鍵因素。如果出現(xiàn)異?;蚪Y(jié)果不符合目標(biāo),智能體會(huì)提出應(yīng)對(duì)策略,重新規(guī)劃并啟動(dòng)新的循環(huán)過(guò)程,這是整個(gè)任務(wù)管理流程的核心部分。

?

下圖是智能體架構(gòu)典型的架構(gòu),在很多智能化介紹文檔都有引用。

?

wKgaomZrqNiAL8haAAFtN_jvzuQ016.png

?

LLM作為一種智能代理,引發(fā)了人們對(duì)人工智能與人類工作的關(guān)系和未來(lái)發(fā)展的思考。它讓我們思考人類如何與智能代理合作,從而實(shí)現(xiàn)更高效的工作方式。而這種合作方式也讓我們反思人類自身的價(jià)值和特長(zhǎng)所在。

?

3.3 智能體開(kāi)發(fā)框架

智能體是當(dāng)前大模型最火熱的話題,如何快速開(kāi)發(fā)智能體,智能體開(kāi)發(fā)框架少不了。當(dāng)下主流的智能體開(kāi)發(fā)框架有Langchain,metaGPT。

1、Langchain

LangChain是一個(gè)用于開(kāi)發(fā)由語(yǔ)言模型支持的應(yīng)用程序的框架。它使應(yīng)用程序能夠:

?感知上下文:將語(yǔ)言模型連接到上下文源(提示說(shuō)明、小樣本示例、響應(yīng)的內(nèi)容等)

?推理:依靠語(yǔ)言模型進(jìn)行推理(關(guān)于如何根據(jù)提供的上下文進(jìn)行回答、采取什么操作等)

wKgZomZrqNmAQrMPAASfLPeZF9Q562.png

?

LangChain框架有以下幾個(gè)核心組成部分:

?LangChain庫(kù):PythonJavaScript庫(kù)。包含無(wú)數(shù)組件的接口和集成、將這些組件組合成鏈和Agent的基本運(yùn)行時(shí),以及鏈和Agent的現(xiàn)成實(shí)現(xiàn)。

?LangChain模板:一系列易于部署的參考架構(gòu),適用于各種任務(wù)。

?LangServe:用于將LangChain鏈部署為RESTAPI的庫(kù)。

?LangSmith:一個(gè)開(kāi)發(fā)者平臺(tái),可讓您調(diào)試、測(cè)試、評(píng)估和監(jiān)控基于任何LLM框架構(gòu)建的鏈,并與LangChain無(wú)縫集成。

?

2、MetaGPT

MetaGPT是一個(gè)創(chuàng)新框架,將人類工作流程作為元編程方法整合到基于LLM的多智能體協(xié)作中。它使用標(biāo)準(zhǔn)化操作程序(SOP)編碼為提示,要求模塊化輸出,以增強(qiáng)代理的領(lǐng)域?qū)I(yè)知識(shí)并減少錯(cuò)誤。實(shí)驗(yàn)表明,MetaGPT在協(xié)作軟件工程基準(zhǔn)上生成了更連貫和正確的解決方案,展示了將人類知識(shí)整合進(jìn)多智能體系統(tǒng)的潛力,為解決復(fù)雜問(wèn)題提供了新機(jī)會(huì)。

在MetaGPT看來(lái),可以將智能體想象成環(huán)境中的數(shù)字人,其中

智能體 = 大語(yǔ)言模型(LLM) + 觀察 + 思考 + 行動(dòng) + 記憶

wKgaomZrqNqAFEI2AAKnuAK2PVU874.png

?

這個(gè)公式概括了智能體的功能本質(zhì)。為了理解每個(gè)組成部分,讓我們將其與人類進(jìn)行類比:

1.大語(yǔ)言模型(LLM):LLM作為智能體的“大腦”部分,使其能夠處理信息,從交互中學(xué)習(xí),做出決策并執(zhí)行行動(dòng)。

2.觀察:這是智能體的感知機(jī)制,使其能夠感知其環(huán)境。智能體可能會(huì)接收來(lái)自另一個(gè)智能體的文本消息、來(lái)自監(jiān)視攝像頭的視覺(jué)數(shù)據(jù)或來(lái)自客戶服務(wù)錄音的音頻等一系列信號(hào)。這些觀察構(gòu)成了所有后續(xù)行動(dòng)的基礎(chǔ)。

3.思考:思考過(guò)程涉及分析觀察結(jié)果和記憶內(nèi)容并考慮可能的行動(dòng)。這是智能體內(nèi)部的決策過(guò)程,其可能由LLM進(jìn)行驅(qū)動(dòng)。

4.行動(dòng):這些是智能體對(duì)其思考和觀察的顯式響應(yīng)。行動(dòng)可以是利用 LLM 生成代碼,或是手動(dòng)預(yù)定義的操作,如閱讀本地文件。此外,智能體還可以執(zhí)行使用工具的操作,包括在互聯(lián)網(wǎng)上搜索天氣,使用計(jì)算器進(jìn)行數(shù)學(xué)計(jì)算等。

5.記憶:智能體的記憶存儲(chǔ)過(guò)去的經(jīng)驗(yàn)。這對(duì)學(xué)習(xí)至關(guān)重要,因?yàn)樗试S智能體參考先前的結(jié)果并據(jù)此調(diào)整未來(lái)的行動(dòng)。

四、向量數(shù)據(jù)庫(kù)

向量數(shù)據(jù)庫(kù)是專注于存儲(chǔ)和查詢向量的系統(tǒng),其向量源于文本、語(yǔ)音、圖像等數(shù)據(jù)的向量化表示。相較于傳統(tǒng)數(shù)據(jù)庫(kù),向量數(shù)據(jù)庫(kù)更擅長(zhǎng)處理非結(jié)構(gòu)化數(shù)據(jù),比如:文本、圖像和音頻。在機(jī)器學(xué)習(xí)深度學(xué)習(xí)中,數(shù)據(jù)通常以向量形式存在。向量數(shù)據(jù)庫(kù)憑借高效存儲(chǔ)、索引和搜索高維數(shù)據(jù)點(diǎn)的能力,在處理比如:數(shù)值特征、文本或圖像嵌入等復(fù)雜數(shù)據(jù)時(shí)表現(xiàn)出色。

wKgZomZrqNyAFi26AANaw_EbSyU199.png

?

GPT 彰顯了卓越的智能性能,其成功歸功于眾多要素,但在工程實(shí)現(xiàn)上,一個(gè)決定性的突破在于:神經(jīng)網(wǎng)絡(luò)與大型語(yǔ)言模型將語(yǔ)言問(wèn)題轉(zhuǎn)化為數(shù)學(xué)問(wèn)題,并以高效工程方法解決了這一數(shù)學(xué)挑戰(zhàn)。

在人工智能領(lǐng)域,知識(shí)與概念的內(nèi)在表示均采用數(shù)學(xué)向量。這個(gè)過(guò)程,即將詞匯、文本、語(yǔ)句、段落、圖片或音頻等對(duì)象轉(zhuǎn)換為數(shù)學(xué)向量,被稱為嵌入(Embedding)。

以 OpenAI 為例,它采用一個(gè) 1536 維的浮點(diǎn)數(shù)向量空間。當(dāng)你向 ChatGPT 提出疑問(wèn)時(shí),輸入的文本首先被編碼并轉(zhuǎn)換成一個(gè)數(shù)學(xué)向量,隨后作為神經(jīng)網(wǎng)絡(luò)的輸入。神經(jīng)網(wǎng)絡(luò)產(chǎn)生的直接輸出也是一個(gè)向量,該向量隨后被解碼回人類的自然語(yǔ)言或其他形式,最終呈現(xiàn)給你。

?

wKgaomZrqN-AUipoAAFhydF95vY406.png

?

人工智能大模型的"思考"過(guò)程,本質(zhì)上是一系列涉及向量和矩陣的數(shù)學(xué)運(yùn)算,包括加法、乘法以及它們的逆運(yùn)算。這些運(yùn)算對(duì)于人類來(lái)說(shuō)非常抽象,難以直觀理解。然而,這種數(shù)學(xué)形式非常適合通過(guò)專用硬件如GPU(圖形處理單元)、FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)或ASIC(專用集成電路)來(lái)高效執(zhí)行,從而為AI提供了一個(gè)基于硅的仿生"大腦"。這個(gè)"大腦"擁有龐大的神經(jīng)元網(wǎng)絡(luò)、迅捷的處理速度、先進(jìn)的學(xué)習(xí)算法,能夠展現(xiàn)出令人驚嘆的智能水平,并且具備快速自我復(fù)制和理論上的持久運(yùn)行能力。

語(yǔ)言大模型處理的是編碼、運(yùn)算到輸出的整個(gè)流程。但是,單純的計(jì)算并不足以支撐其智能行為,記憶同樣是關(guān)鍵組成部分。大型模型可以被看作是對(duì)人類公開(kāi)數(shù)據(jù)集進(jìn)行壓縮和存儲(chǔ)的一種形式,其中包含的豐富知識(shí)通過(guò)訓(xùn)練過(guò)程被編碼進(jìn)模型,體現(xiàn)在模型的權(quán)重參數(shù)中。為了實(shí)現(xiàn)更高精度、更長(zhǎng)期、更過(guò)程化的大容量記憶存儲(chǔ),就需要借助向量數(shù)據(jù)庫(kù)技術(shù)。這些數(shù)據(jù)庫(kù)專門(mén)設(shè)計(jì)來(lái)高效存儲(chǔ)和檢索高維向量,它們是大模型記憶功能的重要支撐,使得AI系統(tǒng)能夠更精準(zhǔn)地回憶和利用已學(xué)習(xí)的知識(shí)。

五、知識(shí)圖譜

知識(shí)圖譜是一種以圖形式存儲(chǔ)和管理知識(shí)的數(shù)據(jù)庫(kù),它基于實(shí)體和它們之間的關(guān)系來(lái)構(gòu)建。這種結(jié)構(gòu)化的數(shù)據(jù)庫(kù)設(shè)計(jì)用于高效地組織和呈現(xiàn)人類知識(shí)的各個(gè)方面。

知識(shí)圖譜通過(guò)語(yǔ)義分析抽取信息,建立實(shí)體之間的聯(lián)系,構(gòu)建出層次化的網(wǎng)絡(luò)結(jié)構(gòu)。在這個(gè)網(wǎng)絡(luò)中,實(shí)體如人物、地點(diǎn)、機(jī)構(gòu)等,不僅被賦予了特定的屬性,還通過(guò)各種關(guān)系與其他實(shí)體相連。通過(guò)先進(jìn)的數(shù)據(jù)挖掘技術(shù)、信息處理方法和圖形化展示手段,知識(shí)圖譜能夠揭示知識(shí)領(lǐng)域的演變趨勢(shì),為學(xué)術(shù)研究提供有力的數(shù)據(jù)支持。

知識(shí)圖譜在反欺詐領(lǐng)域應(yīng)用廣泛,通過(guò)分析實(shí)體間關(guān)系網(wǎng)絡(luò)識(shí)別潛在欺詐行為。它整合多源數(shù)據(jù),實(shí)現(xiàn)多維度風(fēng)險(xiǎn)評(píng)估和異常檢測(cè),提高預(yù)警準(zhǔn)確性。知識(shí)圖譜的可視化分析助力快速識(shí)別欺詐模式,同時(shí)輔助制定和優(yōu)化反欺詐策略。此外,它還用于貸后管理和案件調(diào)查,提升金融風(fēng)控效率和效果。隨著技術(shù)發(fā)展,知識(shí)圖譜在反欺詐中的作用日益凸顯。

wKgZomZrqOCAfLHnAAFBPY2NEYY625.png

?

?

知識(shí)圖譜與智能體(AI Agent)結(jié)合,提供了豐富的背景知識(shí)與實(shí)體關(guān)系,增強(qiáng)了智能體的決策和理解能力。這種結(jié)合使得智能體能夠執(zhí)行個(gè)性化服務(wù)、自動(dòng)化任務(wù)、復(fù)雜問(wèn)題解決等,同時(shí)提高了學(xué)習(xí)和適應(yīng)能力。智能體通過(guò)知識(shí)圖譜進(jìn)行上下文理解,實(shí)現(xiàn)精準(zhǔn)的交互和響應(yīng),優(yōu)化了用戶體驗(yàn),并提升了服務(wù)效率和準(zhǔn)確性。

六、微調(diào)(Fine-tuning)

6.1 什么是微調(diào)(Fine-tuning)

大模型微調(diào)是提升AI應(yīng)用性能的有效手段,主要基于以下幾點(diǎn)考慮:

首先,大模型由于參數(shù)眾多,訓(xùn)練成本極高,不適宜每家公司都從頭開(kāi)始訓(xùn)練。微調(diào)可以在現(xiàn)有模型基礎(chǔ)上進(jìn)行,性價(jià)比更高。

其次,雖然Prompt Engineering是一種易于上手的大模型使用方式,但它存在明顯缺陷。大模型通常對(duì)輸入序列長(zhǎng)度有限制,而Prompt Engineering可能導(dǎo)致輸入過(guò)長(zhǎng),增加推理成本,甚至因超長(zhǎng)被截?cái)?,影響輸出質(zhì)量。對(duì)企業(yè)而言,微調(diào)可以更有效地控制推理成本。

第三,當(dāng)Prompt Engineering效果不佳,而企業(yè)又擁有高質(zhì)量的自有數(shù)據(jù)時(shí),微調(diào)可以顯著提升模型在特定領(lǐng)域的性能。

第四,微調(diào)支持個(gè)性化服務(wù)。企業(yè)可以針對(duì)每個(gè)用戶的數(shù)據(jù)訓(xùn)練輕量級(jí)的微調(diào)模型,提供定制化服務(wù)。

最后,數(shù)據(jù)安全也是微調(diào)的重要原因。對(duì)于不能共享給第三方的數(shù)據(jù),企業(yè)需要自行微調(diào)開(kāi)源大模型,以滿足業(yè)務(wù)需求并保障數(shù)據(jù)安全。

綜上所述,大模型微調(diào)可以降低訓(xùn)練成本,提升特定領(lǐng)域性能,支持個(gè)性化服務(wù),并保障數(shù)據(jù)安全,是企業(yè)利用AI技術(shù)的重要策略。通過(guò)微調(diào),企業(yè)可以更高效、更安全地利用大模型,推動(dòng)業(yè)務(wù)發(fā)展。

6.2 如何微調(diào)(Fine-tuning)

在參數(shù)規(guī)模上,大模型微調(diào)主要有兩種方法:全量微調(diào)(FFT)和參數(shù)高效微調(diào)(PEFT)。

FFT通過(guò)用特定數(shù)據(jù)訓(xùn)練模型,將權(quán)重矩陣W調(diào)整為W',從而在相關(guān)領(lǐng)域提升性能。然而,F(xiàn)FT存在兩個(gè)主要問(wèn)題:一是訓(xùn)練成本高,因?yàn)槲⒄{(diào)的參數(shù)量與預(yù)訓(xùn)練相同;二是災(zāi)難性遺忘,即微調(diào)可能削弱模型在其他領(lǐng)域的表現(xiàn)。

PEFT旨在解決FFT的這些問(wèn)題,是目前更流行的微調(diào)方法。從訓(xùn)練數(shù)據(jù)來(lái)源和方法來(lái)看,PEFT包括幾種技術(shù)路線:

1.監(jiān)督式微調(diào)(SFT),使用人工標(biāo)注數(shù)據(jù),通過(guò)監(jiān)督學(xué)習(xí)進(jìn)行微調(diào)。

2.基于人類反饋的強(qiáng)化學(xué)習(xí)微調(diào)(RLHF),將人類反饋通過(guò)強(qiáng)化學(xué)習(xí)引入微調(diào),使模型輸出更符合人類期望。

3.基于AI反饋的強(qiáng)化學(xué)習(xí)微調(diào)(RLAIF),與RLHF類似,但反饋來(lái)自AI,以提高反饋系統(tǒng)的效率。

不同的微調(diào)方法側(cè)重點(diǎn)不同,實(shí)際操作中可以結(jié)合多種方案,以達(dá)到最佳效果。

七、Function Calling

ChatGPT引入了一個(gè)名為Function Calling的新功能,它允許用戶在API調(diào)用中向模型gpt-3.5-turbo-0613和gpt-4-0613描述函數(shù),并讓模型智能選擇輸出一個(gè)包含調(diào)用這些函數(shù)參數(shù)的JSON對(duì)象。不過(guò),Chat completions API本身并不直接調(diào)用這些函數(shù),而是生成一個(gè)JSON,供用戶在自己的代碼中調(diào)用這些函數(shù)。

function calling從本質(zhì)上并不是嚴(yán)格的工具調(diào)用, 而是作為工具調(diào)用的前奏,它通過(guò)更加結(jié)構(gòu)化的方式指導(dǎo)LLM輸出,為在本地執(zhí)行具體函數(shù)提供了參數(shù),鋪平了道路。

以“股票價(jià)格查詢”為例,可以定義一個(gè)名為get_stock_price的函數(shù),該函數(shù)接收股票代碼作為參數(shù)。LLM根據(jù)用戶的問(wèn)題,如“請(qǐng)查詢股票代碼為AAPL的價(jià)格”,識(shí)別出需要調(diào)用get_stock_price函數(shù),并從問(wèn)題中提取出參數(shù)值“AAPL”。

開(kāi)發(fā)者隨后可以根據(jù)這個(gè)JSON參數(shù),在后端用實(shí)際的代碼實(shí)現(xiàn)查詢股票價(jià)格的功能,并將查詢結(jié)果傳遞回LLM,最終由LLM將信息呈現(xiàn)給用戶。

ChatGLM3通過(guò)在模型輸入中嵌入函數(shù)描述的邏輯來(lái)實(shí)現(xiàn)工具調(diào)用,這涉及到對(duì)輸入的prompt進(jìn)行一些調(diào)整,使得模型能夠識(shí)別和響應(yīng)函數(shù)調(diào)用的需求。

總之,工具調(diào)用為L(zhǎng)LM提供了調(diào)用外部工具的能力,擴(kuò)展了其應(yīng)用范圍,開(kāi)發(fā)者可以定義各種功能的函數(shù),幫助LLM完成更復(fù)雜的任務(wù)。

八、AGI

AGI即通用人工智能(Artificial General Intelligence)。按照維基百科的定義,通用人工智能是具備與人類同等智能、或超越人類的人工智能,能表現(xiàn)正常人類所具有的所有智能行為。

AGI(通用人工智能)代表著人工智能發(fā)展的頂峰,旨在創(chuàng)造能夠理解并處理各類復(fù)雜任務(wù)的智能系統(tǒng),與人類智能相匹敵。在通往這一宏偉目標(biāo)的征途上,一系列關(guān)鍵技術(shù)發(fā)揮著不可或缺的作用。

AI大模型通過(guò)其龐大的數(shù)據(jù)和模型參數(shù),為理解和生成語(yǔ)言提供了基礎(chǔ)。Prompt Engineering則通過(guò)精心設(shè)計(jì)的提示,引導(dǎo)AI模型產(chǎn)生準(zhǔn)確的響應(yīng)。Agent智能體技術(shù)賦予了AI自主行動(dòng)和決策的能力,而知識(shí)庫(kù)和向量數(shù)據(jù)庫(kù)則為AI提供了豐富的信息資源和高效的數(shù)據(jù)檢索能力。

RAG(Retrieval-Augmented Generation)模型結(jié)合了檢索和生成,進(jìn)一步提升了AI處理任務(wù)的靈活性和準(zhǔn)確性。知識(shí)圖譜則通過(guò)結(jié)構(gòu)化的方式,將知識(shí)以圖的形式表示,增強(qiáng)了AI的推理和關(guān)聯(lián)能力。

這些技術(shù)相互配合,形成了一個(gè)多元化、高度協(xié)作的AI生態(tài)系統(tǒng)。它們共同推動(dòng)著AI技術(shù)的持續(xù)進(jìn)步,為實(shí)現(xiàn)AGI的終極目標(biāo)打下了堅(jiān)實(shí)的基礎(chǔ)。隨著技術(shù)的不斷發(fā)展和創(chuàng)新,我們離實(shí)現(xiàn)真正的通用人工智能的愿景越來(lái)越近。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30121

    瀏覽量

    268407
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46853

    瀏覽量

    237541
  • Agi
    Agi
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    10194
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2324

    瀏覽量

    2480
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    2023北京智源大會(huì)亮點(diǎn)回顧 | 高性能計(jì)算、深度學(xué)習(xí)和大模型:打造通用人工智能AGI的金三角

    北京智源大會(huì)中黃鐵軍表示,“第一性原理”出發(fā),通過(guò)構(gòu)建一個(gè)完整的智能系統(tǒng)AGI,原子有機(jī)分子
    的頭像 發(fā)表于 06-15 14:16 ?1066次閱讀
    2023北京智源大會(huì)亮點(diǎn)回顧 | 高性能計(jì)算、深度學(xué)習(xí)和大<b class='flag-5'>模型</b>:打造<b class='flag-5'>通用人工智能</b><b class='flag-5'>AGI</b>的金三角

    報(bào)名開(kāi)啟!深圳(國(guó)際)通用人工智能大會(huì)將啟幕,國(guó)內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國(guó)際)通用人工智能大會(huì)暨深圳(國(guó)際)通用人工智能產(chǎn)業(yè)博覽會(huì)將在深圳國(guó)際會(huì)展中心(寶安)舉辦。大會(huì)以“魅力AI·無(wú)限未來(lái)”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    解讀人工智能的未來(lái)

    交通路線等等。而目前讓人們感到恐慌的實(shí)際上是另一種人工智能,它叫做AGI人工通用智能,它是一種像人類一樣聰明靈活的
    發(fā)表于 11-14 10:43

    什么是基于云計(jì)算的人工智能服務(wù)?

    如今,采用人工智能的企業(yè)遇到了一個(gè)主要障礙,那就是在內(nèi)部開(kāi)發(fā)人工智能產(chǎn)品成本高昂,因此有了外包人工智能產(chǎn)品的需求。而對(duì)于從中小企業(yè)預(yù)算受限的大型企業(yè)來(lái)說(shuō),通過(guò)云計(jì)算來(lái)采
    發(fā)表于 09-11 11:51

    通用人工智能啥時(shí)候能實(shí)現(xiàn)

    通用人工智能啥時(shí)候能實(shí)現(xiàn)
    發(fā)表于 12-17 06:19

    AGI:走向通用人工智能的【生命學(xué)&哲學(xué)&科學(xué)】第一篇——生命、意識(shí)、五行、易經(jīng)、量子 精選資料分享

    AGI:走向通用人工智能的【生命學(xué)&哲學(xué)&科學(xué)】第一篇——生命、意識(shí)、五行、易經(jīng)、量子經(jīng)典的物理統(tǒng)一在原子上,量子的物理統(tǒng)一在量子上,化學(xué)統(tǒng)一在元素上,而生命統(tǒng)一在DNA上,DNA
    發(fā)表于 07-26 06:57

    人工智能芯片是人工智能發(fā)展的

    人工智能芯片是人工智能發(fā)展的 | 特倫斯謝諾夫斯基責(zé)編 | 屠敏本文內(nèi)容經(jīng)授權(quán)摘自《深度學(xué)習(xí) 智能時(shí)代的核心驅(qū)動(dòng)力量》AlphaGo的人機(jī)對(duì)戰(zhàn),
    發(fā)表于 07-27 07:02

    人工智能基本概念機(jī)器學(xué)習(xí)算法

    目錄人工智能基本概念機(jī)器學(xué)習(xí)算法1. 決策樹(shù)2. KNN3. KMEANS4. SVM5. 線性回歸深度學(xué)習(xí)算法1. BP2. GANs3. CNN4. LSTM應(yīng)用人工智能基本概念數(shù)據(jù)集:訓(xùn)練集
    發(fā)表于 09-06 08:21

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.16】 通用人工智能:初心與未來(lái)

    ,以及當(dāng)前“專用人工智能實(shí)現(xiàn)真正的“通用人工智能”還需要在哪些方面取得突破。書(shū)中對(duì)當(dāng)前人工智能技術(shù)的發(fā)展路徑提出了不少質(zhì)疑,也給出了新
    發(fā)表于 06-21 14:41

    通用人工智能:初心與未來(lái)》-試讀報(bào)告

    作者給出的結(jié)論。整體讀下來(lái),可以給我們關(guān)于通用人工智能全面的了解。作者也反復(fù)強(qiáng)調(diào)了通用人工智能與專用智能的區(qū)別。尤其是人們錯(cuò)誤的認(rèn)為一堆專用智能堆砌起來(lái)就是
    發(fā)表于 09-18 10:02

    什么是人類智能 楊學(xué)山淺談通用人工智能的發(fā)展途徑

    近日,在"第五屆中國(guó)行業(yè)互聯(lián)網(wǎng)大會(huì)"上,北京大學(xué)兼職教授、工信部原副部長(zhǎng)楊學(xué)山發(fā)表了題為《走向通用人工智能》的演講。重點(diǎn)講述了通用人工智能AGI的歷史,闡釋了什么是人類智能,最后探討了
    的頭像 發(fā)表于 09-02 10:20 ?2953次閱讀

    通用人工智能是什么_通用人工智能四大基本問(wèn)題

    AGI即Artificial general intelligence的簡(jiǎn)寫(xiě) ,計(jì)算機(jī)科學(xué)與技術(shù)專業(yè)用語(yǔ),專指通用人工智能。這一領(lǐng)域主要專注于研制像人一樣思考、像人一樣從事多種用途的機(jī)器。這一單詞
    的頭像 發(fā)表于 12-28 14:58 ?3.8w次閱讀

    專用和通用人工智能的區(qū)別

    隨著當(dāng)今社會(huì)科學(xué)技術(shù)的持續(xù)發(fā)展,和人們對(duì)編程技術(shù)的發(fā)展,近年來(lái)AI產(chǎn)業(yè)正在飛速發(fā)展,并且當(dāng)今社會(huì)也有越來(lái)越多的人工智能產(chǎn)業(yè)實(shí)踐,所以越來(lái)越多的人都開(kāi)始關(guān)注人工智能方面,由此可見(jiàn)人工智能在當(dāng)今社會(huì)中的熱度,今天就來(lái)講講專
    的頭像 發(fā)表于 12-28 15:03 ?5.1w次閱讀

    通用人工智能的多模態(tài)通用技術(shù)

    intelligence)期望機(jī)器能像人一樣思考、推理,能處理各種任務(wù),比肩人類的智能水平(human-like or human-level intelligence)。與強(qiáng)人工智能相比,現(xiàn)有通用人工智能更加
    的頭像 發(fā)表于 02-04 10:44 ?5989次閱讀
    <b class='flag-5'>通用人工智能</b>的多模態(tài)<b class='flag-5'>通用</b>技術(shù)

    GPT-4只是AGI的火花?LLM終將退場(chǎng),世界模型才是未來(lái)

    導(dǎo)讀人類距離AGI還有多遠(yuǎn)?也許大語(yǔ)言模型不是最終答案,一個(gè)理解世界的模型才是未來(lái)的方向。在人類的認(rèn)知之中,似乎早已習(xí)慣將通用人工智能AGI
    的頭像 發(fā)表于 08-18 08:30 ?518次閱讀
    GPT-4只是<b class='flag-5'>AGI</b>的火花?LLM終將退場(chǎng),世界<b class='flag-5'>模型</b>才是未來(lái)