2026/5/13 23:41:31
网站建设
项目流程
网站开发年薪,网站首页图片素材长图大全,个人网页制作设计模板,建设营销网站的四个步骤基于大语言模型#xff08;LLM#xff09;的 AI 智能体正在变得越来越普遍#xff0c;似乎正在取代我们
熟悉的“常规”对话式 LLM。这些令人惊叹的能力并非轻易就能实现#xff0c;需要许多组件协同工作。在这篇文章中#xff0c;我们将通过64张图#xff0c;探索 AI 智…基于大语言模型LLM的 AI 智能体正在变得越来越普遍似乎正在取代我们熟悉的“常规”对话式 LLM。这些令人惊叹的能力并非轻易就能实现需要许多组件协同工作。在这篇文章中我们将通过64张图探索 AI 智能体的架构设计、关键技术、主要组成部分、以及多智能体框架。具体包括14项关键技术什么是LLM智能体、记忆、短期记忆、长期记忆、工具、Toolformer、模型上下文协议MCP、规划、推理、推理与行动、反思、多智能体协作、人类行为的交互式仿真、模块化框架等。下文我们详细剖析之。AI 智能体的架构设计和关键技术1、什么是 LLM 智能体要了解 LLM 智能体是什么我们首先来探索 LLM 的基本能力。传统上LLM 所做的无非是 next-token 的预测。通过连续采样许多 tokens我们可以模拟对话并使用 LLM 为我们的问题提供更详细的答案。然而当我们继续“对话”时任何给定的 LLM 都会显露出它的主要缺点之一它不记得对话还有许多其他任务是 LLM 经常失败的包括基本的数学运算比如乘法和除法这是否意味着 LLM 很糟糕绝对不是LLM 不需要具备一切能力因为我们可以借助外部工具、记忆和检索系统来弥补它们的不足。通过外部系统LLM 的能力可以得到增强。Anthropic 将其称为“增强型 LLM”。例如当面临一个数学问题时LLM 可能会决定使用适当的工具比如计算器。那么这种“增强型 LLM”是不是智能体呢不完全是但也有一点……让我们先从智能体的定义开始智能体是可以被视为通过传感器感知其环境并通过执行器对环境采取行动的任何事物。–Russell Norvig《人工智能一种现代方法》2016智能体与环境互动通常包含几个重要组成部分环境智能体互动的世界传感器用于观察环境执行器用于与环境互动的工具效应器决定如何从观察到行动的“大脑”或规则。这个框架适用于各种与各种环境互动的智能体比如与物理环境互动的机器人或者与软件互动的 AI 智能体。我们可以将这个框架稍微泛化一下使其适用于“增强型 LLM”。使用“增强型” LLM智能体可以通过文本输入因为 LLM 通常是基于文本的模型来观察环境并通过使用工具比如搜索网络来执行某些动作。为了选择要采取哪些动作LLM 智能体有一个关键组成部分它的规划能力。为此LLM 需要能够通过诸如思维链等方法进行“推理”和“思考”。通过这种推理行为LLM 智能体会规划出必要的动作。这种规划行为使智能体能够理解情况LLM、规划下一步规划、采取行动工具并跟踪已采取的动作记忆。根据系统您可以拥有不同程度自主性的 LLM 智能体。根据您询问的对象一个系统越“智能体化”LLM 就越决定系统的可行为方式。在接下来的部分中我们将通过 LLM 智能体的三个主要组成部分记忆、工具和规划来探讨各种自主行为的方法。2、记忆LLM 是健忘的系统或者更准确地说当与它们互动时它们根本不会进行任何记忆。例如当您向 LLM 提问然后接着问另一个问题时它不会记得前者。我们通常将其称为短期记忆也称为工作记忆它作为近乎即时上下文的缓冲区。这包括 LLM 智能体最近采取的行动。然而LLM 智能体还需要跟踪可能的数十个步骤而不仅仅是最近的行动。这被称为长期记忆因为 LLM 智能体理论上可能需要记住数十甚至数百个步骤。让我们来探索一些赋予这些模型记忆的技巧。3、短期记忆启用短期记忆的最直接方法是使用模型的上下文窗口这基本上是 LLM 可以处理的 tokens 数量。上下文窗口通常至少有8192个 tokens有时可以扩展到数十万个 tokens较大的上下文窗口可用于跟踪完整的对话历史作为输入提示词的一部分。只要对话历史适合 LLM 的上下文窗口这种方法就可以很好地模拟记忆。然而与其真正记住对话我们实际上是“告诉” LLM 对话是什么。对于上下文窗口较小的模型或者当对话历史较长时我们可以使用另一个 LLM 来总结迄今为止发生的对话。通过持续总结对话我们可以保持对话的大小较小。它会减少 tokens 数量同时只跟踪最重要的信息。4、长期记忆LLM 智能体的长期记忆包括需要长期保留的智能体过去的行动空间。启用长期记忆的常见技术是将所有之前的互动、行动和对话存储在外部向量数据库中。为了构建这样一个数据库对话首先被嵌入Embedded到能够捕捉其含义的数值表示中。在构建数据库之后我们可以将任何给定的提示词嵌入其中并通过将提示词嵌入与数据库嵌入进行比较在向量数据库中找到最相关的信息。这种方法通常被称为检索增强生成RAG。长期记忆还可以涉及保留来自不同会话的信息。例如您可能希望 LLM 智能体记住它在以前会话中进行的任何研究。不同类型的信息也可以与不同类型的记忆相关联以存储。在心理学中有许多不同类型的记忆可以区分但《语言智能体的认知架构》论文将其中四种与 LLM 智能体联系起来。这种区分有助于构建智能体框架。语义记忆关于世界的事实可能存储在与工作记忆当前和最近的情况不同的数据库中。5、工具工具允许给定的 LLM 与外部环境比如数据库互动或者使用外部应用程序比如运行自定义代码。工具通常有两种类型获取数据以检索最新信息以及采取行动如安排会议或订购食物。要实际使用工具LLM 需要生成与给定工具的 API 匹配的文本。我们通常期望可以格式化为 JSON 的字符串以便轻松地输入代码解释器。请注意这不仅限于 JSON我们也可以直接在代码中调用工具您还可以生成 LLM 可以使用的自定义函数比如基本的乘法函数。这通常被称为函数调用Function Calling。一些 LLM 可以通过正确且广泛的提示词使用任何工具。工具使用是大多数当前 LLM 具备的能力。更稳定的方法是通过微调 LLM 来访问工具。工具可以按给定顺序使用如果智能体框架是固定的…………或者 LLM 可以自主选择何时使用哪个工具。LLM 智能体如上图所示本质上是 LLM 调用的序列但带有自主选择动作/工具等。换句话说中间步骤的输出被反馈到 LLM 中以继续处理。6、Toolformer工具使用是一种强大的技术可以增强 LLM 的能力并弥补它们的不足。因此近年来关于工具使用和学习的研究工作迅速增加。对工具使用的关注增加智能体LLM 有望变得更强大。这项研究不仅涉及提示词 LLM 使用工具还涉及专门训练它们使用工具。最早实现这一目标的技术之一是 Toolformer这是一种经过训练的模型可以决定调用哪些 API 以及如何调用。它通过使用 [and] tokens 来指示调用工具的开始和结束。当给定一个提示词例如 “5乘以3是多少”时它开始生成 tokens直到达到 [ token。之后它继续生成 tokens直到达到 → 标记这表明 LLM 停止生成 tokens。然后将调用工具并将输出添加到迄今为止生成的 tokens 中。] 符号表示 LLM 现在可以在必要时继续生成。Toolformer 通过仔细生成一个包含许多工具使用的数据集来创建这种行为模型可以在此基础上进行训练。对于每个工具手动创建几个示例提示词并用于采样使用这些工具的输出。根据工具使用的正确性、输出和损失减少对输出进行过滤。得到的数据集用于训练 LLM 以遵循这种工具使用的格式。自 Toolformer 发布以来出现了许多令人兴奋的技术例如可以使用数千种工具的 LLMToolLLM或可以轻松检索最相关工具的 LLMGorilla。不管怎样大多数当前的 LLM2025年初都经过训练可以通过 JSON 生成轻松调用工具。7、模型上下文协议MCP工具是智能体框架的重要组成部分允许 LLM 与世界互动并扩展其能力。然而当您有许多不同的 API 时启用工具使用变得麻烦因为任何工具都需要手动跟踪并输入给 LLM手动描述包括其预期的 JSON 模式每当其 API 发生变化时手动更新为了使工具更容易在任何给定的智能体框架中实现Anthropic 开发了模型上下文协议MCP。MCP 标准化了对天气应用和 GitHub 等服务的 API 访问。它由三个部分组成MCP 主机LLM 应用程序比如Cursor管理连接MCP 客户端与 MCP 服务器保持 1:1 连接MCP 服务器向 LLM 提供上下文、工具和能力例如假设您希望某个 LLM 应用程序总结您仓库中的5个最新提交。MCP 主机与客户端一起将首先调用 MCP 服务器询问哪些工具可用。LLM 收到信息后可能会选择使用工具。它通过主机向 MCP 服务器发送请求然后接收结果包括使用的工具。最后LLM 接收结果并可以向用户解析答案。这个框架通过连接到任何 LLM 应用程序都可以使用的 MCP 服务器使创建工具变得更容易。因此当您创建一个与 Github 互动的 MCP 服务器时任何支持 MCP 的 LLM 应用程序都可以使用它。8、规划工具使用使 LLM 能够增强其能力。它们通常通过类似 JSON 的请求调用。但是LLM 在智能体系统中如何决定使用哪个工具以及何时使用呢这就是规划的作用。LLM 智能体中的规划涉及将给定任务分解为可操作的步骤。这个计划允许模型迭代地反思过去的行为并在必要时更新当前计划。为了在 LLM 智能体中启用规划我们先来看看这种技术的基础即推理。9、推理规划可操作步骤需要复杂的推理行为。因此LLM 必须能够在规划任务的下一步之前展现出这种行为。“推理”型 LLM 倾向于在回答问题之前“思考”。我在这里使用“推理”和“思考”这两个术语时有点随意因为我们可以争论这是否是类似人类的思考或者仅仅是将答案分解为结构化的步骤。这种推理行为可以通过大致两种选择来实现微调 LLM或特定的提示词工程。通过提示词工程我们可以创建 LLM 应遵循的推理过程示例。提供示例也称为少样本提示是引导 LLM 行为的好方法。这种提供思维过程示例的方法称为思维链能够实现更复杂的推理行为。思维链也可以在没有任何示例零样本提示的情况下启用只需简单地说“让我们逐步思考”。在训练 LLM 时我们可以给它足够数量包含类似思维的示例数据集或者 LLM 可以发现自己的思维过程。一个很好的例子是 DeepSeek-R1其中使用奖励来引导思维过程的使用。10、推理与行动在 LLM 中启用推理行为很好但并不一定使其能够规划可操作的步骤。我们到目前为止关注的技术要么展现出推理行为要么通过工具与环境互动。例如思维链纯粹关注推理。最早将这两个过程结合起来的方法之一被称为ReAct推理和行动。ReAct 通过精心的提示词工程实现。ReAct 提示词描述了三个步骤思考对当前情况的推理步骤行动要执行的一组动作例如工具观察对行动结果的推理步骤。提示词本身相当简单。LLM 使用此提示词可以作为系统提示词来引导其行为以循环的方式进行思考、行动和观察。它会持续这种行为直到某个行动指定返回结果。通过迭代思考和观察LLM 可以规划动作观察其输出并相应地进行调整。因此这个框架使 LLM 能够展现出比具有预定义和固定步骤的智能体更具自主性的智能体行为。11、反思没有人即使是带有 ReAct 的 LLM也不会完美地执行每一个任务。失败是过程的一部分只要你能从这个过程中反思。这个过程在 ReAct 中缺失而 Reflexion反思技术则填补了这一空白。Reflexion 是一种使用语言强化帮助智能体从过去的失败中学习的技术。这种方法假设了三个 LLM 角色行动者根据状态观察选择并执行动作。我们可以使用思维链或 ReAct 等方法。评估者对行动者产生的输出进行评分。自我反思反思行动者采取的动作和评估者生成的评分。添加记忆模块以跟踪动作短期和自我反思长期帮助智能体从错误中学习并识别改进的动作。一个类似且优雅的技术是 SELF-REFINE其中细化输出和生成反馈的动作会重复进行。在 SELF-REFINE 中同一个 LLM 负责生成初始输出、细化输出和反馈。有趣的是这种自我反思行为无论是 Reflexion 还是 SELF-REFINE都与强化学习非常相似后者根据输出的质量给予奖励。12、多智能体协作我们探索的单智能体存在几个问题工具过多可能会使选择复杂化上下文变得过于复杂任务可能需要专业化。相反我们可以转向多智能体即多个智能体每个智能体都有自己的工具、记忆和规划相互互动以及与环境互动的框架这些多智能体系统通常由专业化的智能体组成每个智能体都配备了自己的一套工具并由一个主管监督。主管管理智能体之间的通信并可以为专业化的智能体分配特定的任务。每个智能体可能有不同的工具类型可供使用但也可能有不同的记忆系统。在实践中有几十种多智能体架构它们的核心有两个组成部分智能体初始化如何创建单个专业化的智能体智能体协调如何协调所有智能体让我们探索各种有趣的多智能体框架并突出这些组成部分的实现方式。13、人类行为的交互式仿真可以说最具影响力且非常酷的多智能体论文之一是《生成式智能体人类行为的交互式仿真》。在这篇论文中他们创建了模拟可信人类行为的计算软件智能体他们称之为生成式智能体。每个生成式智能体被赋予的档案使其表现出独特的方式并有助于创造更有趣和动态的行为。每个智能体都初始化了三个模块记忆、规划和反思非常类似于我们之前看到的ReAct和Reflexion的核心组成部分。记忆模块是这个框架中最重要的组成部分之一。它存储了规划和反思行为以及迄今为止的所有事件。对于任何给定的下一步或问题记忆会被检索并根据其最近性、重要性和相关性进行评分。评分最高的记忆将与智能体共享。一起它们允许智能体自由地进行行为并相互互动。因此几乎没有智能体协调因为它们没有特定的目标需要努力实现。论文中有太多令人惊叹的信息片段但我想强调他们的评估指标。他们的评估主要以智能体行为的可信度为指标由人类评估者进行评分。这展示了观察、规划和反思对于这些生成式智能体的表现是多么重要。正如我们之前探讨的规划如果没有反思行为是不完整的。14、模块化框架无论您选择哪种框架来创建多智能体系统它们通常都由几个要素组成包括其档案、对环境的感知、记忆、规划和可用动作。实现这些组成部分的流行框架有 Spring AI Alibaba、AutoGen、MetaGPT 和 CAMEL。然而每个框架在每个智能体之间的通信方式上略有不同。以 CAMEL 为例用户首先创建问题并定义 AI 用户和 AI 助手角色。AI 用户角色代表人类用户并将引导整个过程。之后AI 用户和 AI 助手将通过相互互动来解决查询问题。这种角色扮演方法实现了智能体之间的协作沟通。AutoGen 和 MetaGPT 有不同的沟通方式但归根结底它们都具有协作性质的沟通。智能体有机会相互交流以更新它们当前的状态、目标和下一步行动。在过去的一年里尤其是在过去的几周里这些框架的增长呈爆炸式增长。2025年将是令人兴奋的一年因为这些框架不断成熟和发展总结以上就是 LLM Agents 的探索之旅希望这篇文章能让你更好地理解 LLM Agents 的构建方式。普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事02适学人群应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】