红色主题网站模板网站开发遇到过哪些技术难点
2026/4/11 4:11:53 网站建设 项目流程
红色主题网站模板,网站开发遇到过哪些技术难点,互联网建站公司有哪些,如何做响应式网站设计文章介绍了LangChain框架中的记忆治理机制#xff0c;分为短期记忆和长期记忆两层。短期记忆基于Thread和Checkpointer维持单次会话连贯性#xff1b;长期记忆通过Store接口实现跨会话用户偏好沉淀。文章通过代码示例展示两种记忆实现方式#xff0c;强调记忆治理是智能体从…文章介绍了LangChain框架中的记忆治理机制分为短期记忆和长期记忆两层。短期记忆基于Thread和Checkpointer维持单次会话连贯性长期记忆通过Store接口实现跨会话用户偏好沉淀。文章通过代码示例展示两种记忆实现方式强调记忆治理是智能体从玩具走向生产力工具的关键需平衡连贯性、个性化和可持续性。01 前言在上一篇的[LangChain 系列 | 上下文工程]中我们探讨了如何在单次交互中为模型提供精准的信息。如果说上下文工程解决的是空间维度当前输入的信息量与质量的问题那么记忆Memory解决的则是时间维度跨越交互的连续性的问题。在当下基础模型Base Models的上下文窗口虽然已经极大扩展但“无限上下文”并不等于“无限智能”。在实战中智能体往往因为缺乏对历史信息的有效索引而出现“断片”。在 LangChain V1.0 的架构体系中记忆治理被严格划分为两个层级1、****短期记忆Short-term Memory它的作用范围是会话级Conversation-scoped主要负责存储当前对话的消息、上传的文件、身份验证状态以及工具执行的结果。基于Thread, 保证单次会话的连贯性。2、长期记忆Long-term Memory它的作用范围是跨会话Cross-conversation用于持久化存储用户的偏好、提取出的深度洞察、历史数据以及长期的记忆片段。基于Store, 实现跨会话的用户偏好沉淀与知识管理。注意: 短期记忆也是一种持久上下文作用于某整个会话。02 架构概览框架通过将存储层LangGraph实现与计算层LangChain实现分离建立了一套完整的数据治理体系即如何根据存储层的数据为计算层构建出“正确”的内容。下图展示了运行时Runtime如何分别与短期记忆和长期记忆进行交互03 短期记忆大多数 LLM 本质上是**无状态Stateless**的。LangGraph 实现短期记忆的方式是构建一个有状态的系统Stateful System。这套机制由三个核心要素组成1、Thread (线程)类似于 Email 的会话 ID用于隔离不同用户的对话。2、State (状态)当前会话中累积的数据Messages随着每一步交互而更新。3、Checkpointer (检查点)负责在每一步Step执行后将 State 序列化并持久化到数据库。工作流原理如下图所示一个示例启用 Checkpointer 实现短期记忆# pip install langgraph langchain-deepseek from langchain.agents import create_agent import os from langgraph.checkpoint.memory import InMemorySaver # 生产环境建议使用: from langgraph.checkpoint.postgres import PostgresSaver # 1. 初始化 Checkpointer (记忆后端) # InMemorySaver 仅用于测试重启后数据会丢失 memory InMemorySaver() os.environ[DEEPSEEK_API_KEY] sk-... # 2. 构建 Agent 时注入 checkpointer agent create_agent( deepseek-chat, tools[], checkpointermemory, ) # 3. 运行时配置 (Runtime Config) # 只要 thread_id 相同Agent 就会自动加载之前的 State config_session_A {configurable: {thread_id: session_001}} # 第一轮对话 print(--- Round 1 ---) agent.invoke( {messages: [{role: user, content: 你好我是工程师 DJ}]}, config_session_A ) # 第二轮对话 (Agent 会自动从内存恢复 我是 DJ 这个上下文) print(--- Round 2 ---) response agent.invoke( {messages: [{role: user, content: 我的职业是什么}]}, config_session_A ) # 输出: 你的职业是架构师。 print(response[messages][-1].content)示例首先定义InMemorySaver用于内存中存储短期记忆生产环境通常使用PostgreSQL等数据库然后通过create_agent创建Agent并指定checkpointer最后通过两轮agent的invoke调用并指定同一个配置了thread_id的config。最后输出如下--- Round 1 --- --- Round 2 --- 根据我们对话的开始你提到过**“我是工程师 DJ”**。 所以你的职业是 **工程师**。04 长期记忆短期记忆的致命弱点在于一旦thread\_id改变或者历史记录被修剪Trimming信息就永久丢失了。长期记忆Long-term Memory利用Store接口允许智能体将关键信息从“对话流”中提取出来存储到独立的数据库文档中。它使用 **Namespace命名空间**来隔离数据结构类似于文件路径 (scope, identifier)。跨会话交互原理如下图所示一个示例工具读写实现长期记忆Storefrom langgraph.store.memory import InMemoryStore from langchain.tools import tool, ToolRuntime from langchain.agents import create_agent import os from pydantic import BaseModel # 初始化存储后端 (生产环境通常连接 Redis 或 PostgreSQL) store InMemoryStore() # 这决定了工具中 runtime.context 能访问到哪些字段 classContext(BaseModel): user_id: str tool defsave_user_preference(pref_detail: str, runtime: ToolRuntime): 保存用户偏好到长期记忆。 当用户提到“我喜欢...”或“我不吃...”时调用此工具。 # 1. 获取 Store 实例 current_store runtime.store # 2. 从运行时上下文中安全获取 user_id (非用户输入防注入) # 这需要在 invoke 时通过 configurable 传入 user_id runtime.context.user_id # 3. 写入数据 # Namespace: 类似文件夹路径 (users, bob)用于数据隔离 # Key: 文件名 food_prefs current_store.put( (users, user_id), food_prefs, {detail: pref_detail, updated_at: 2026-01-19} ) return已记录您的偏好。 tool defget_user_info(runtime: ToolRuntime): 读取用户的历史偏好信息 current_store runtime.store user_id runtime.context.user_id # 4. 读取数据 item current_store.get((users, user_id), food_prefs) return item.value if item else暂无该用户偏好记录 # 定义agent os.environ[DEEPSEEK_API_KEY] sk-... agent create_agent( modeldeepseek-chat, tools[save_user_preference, get_user_info], storestore, # 注入长期记忆存储 context_schemaContext # 声明运行时上下文结构 ) user_context Context(user_idDJ_001) print(--round 1--) # 第一次交互保存信息 agent.invoke( {messages: [{role: user, content: 记一下我超级喜欢吃辣尤其是川菜。}]}, contextuser_context ) print(--round 2--) # 第二次交互跨会话/跨工具读取 result agent.invoke( {messages: [{role: user, content: 我刚才说我喜欢吃什么来着}]}, contextuser_context ) print(result[messages][-1].content)示例首先定义InMemoryStore用于存储长期记忆生产环境通常连接 Redis 或 PostgreSQL等然后分别定义了两个可以操作长期记忆的工具最后通过create_agent创建Agent并指定tools、store和context_schema通过两轮agent的invoke调用并指定了同一个context。最后输出如下根据记录你之前提到过你**超级喜欢吃辣尤其是川菜**这是你在2026年1月19日分享的饮食偏好。 川菜确实很美味像麻婆豆腐、水煮鱼、回锅肉这些经典川菜都很受欢迎。你最近有尝试什么新的川菜吗说明长期记忆通常不直接暴露给 LLM 的 Context太长且昂贵而是通过 Tools 按需调用。05 总结记忆治理是 Agent 从“玩具”走向“生产力工具”的分水岭。在构建系统时请遵循以下原则1. Checkpointer (短期记忆)解决“连贯性”主要用于维持对话流Flow。2. Store (长期记忆)解决“个性化”。用于持久存储知识Knowledge和偏好。3. Middleware (治理)解决“可持续性”。防止记忆膨胀拖垮系统通过自动总结和修剪保持上下文的精炼。如何学习AI大模型如果你对AI大模型入门感兴趣那么你需要的话可以点击这里大模型重磅福利入门进阶全套104G学习资源包免费分享这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】这是一份大模型从零基础到进阶的学习路线大纲全览小伙伴们记得点个收藏第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。100套AI大模型商业化落地方案大模型全套视频教程200本大模型PDF书籍学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。LLM面试题合集大模型产品经理资源合集大模型项目实战合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询