单位网站开发费用是否计入无形资产潍坊青州网站建设
2026/3/28 15:31:14 网站建设 项目流程
单位网站开发费用是否计入无形资产,潍坊青州网站建设,word发布wordpress,网上发帖推广文章从操作系统演化视角分析编程Agent的未来#xff0c;提出Agent OS五大子系统#xff1a;内存管理、数据库、进程管理、I/O管理和安全与可观测性。指出当前Agent生态正经历从DOS到现代操作系统的压缩式发展历程#xff0c;内存管理是最复杂的技术战场#xff0c;数据库是…文章从操作系统演化视角分析编程Agent的未来提出Agent OS五大子系统内存管理、数据库、进程管理、I/O管理和安全与可观测性。指出当前Agent生态正经历从DOS到现代操作系统的压缩式发展历程内存管理是最复杂的技术战场数据库是确定性最高的商业机会而真正的突破在于构建能整合所有子系统的Agent OS Kernel。2025 年编程 Agent 大爆发。Claude Code 能帮你写代码、跑测试、修 Bug自主完成复杂工程任务 堪称 ChatGPT 横空出世后的第二次史诗级大地震。但仔细观察这些 Agent 的工作方式你会发现一个惊人的事实它们的底层操作极其 “原始”。 它直接操作你的文件系统和终端虽然有一些内置的确认机制但本质上仍依赖 “信任模型” 而非 “隔离模型”。 这就像早期程序可以随意覆写任何内存地址一样 —— 系统的安全边界取决于程序员的自觉。这让我想起了 1980 年代的 DOS。DOS 也能用——你可以在上面写程序、编辑文档、玩游戏。但它缺乏现代操作系统的一切 没有内存保护没有多任务没有标准化的设备接口。 每个应用都直接操作硬件程序员要自己处理所有底层细节。现在AI Agent 正站在同一个起点。我们花了 30 年才从 DOS 演化到现代操作系统而 Agent 生态正在压缩式地重演这段历史。 本文的核心论点是用操作系统的演化历史来理解 Agent 基础设施的未来。 这个类比不仅能帮我们理解现状还能预测接下来 2-3 年最关键的技术方向——以及最大的机会。一、核心框架Agent OS 的五大子系统在传统计算机中CPU 是算力来源RAM 是临时存储磁盘是持久存储。在 Agent 世界中我们可以找到精确的对应LLM 是新 CPUContext Window 是新内存数据库是新磁盘Agent 是应用。LLM 的上下文窗口与内存一模一样——每次推理完成后所有状态都消失了。关掉电源结束会话一切归零。 这种失忆症意味着所有状态管理都必须外部化—— 这正是我们需要操作系统的根本原因。在应用与资源中间的抽象正是我们所熟悉的操作系统。 操作系统是什么是一个管理资源、提供抽象、协调各组件的系统它由几个重要的子系统组成这五大子系统构成了 Agent OS 的核心骨架。接下来我将按重要性逐一展开。二、内存管理最复杂也最重要的战场操作系统类比能带给我们的最重要洞察是什么——内存管理Context Engineering将是最复杂的战场也是最大的机会所在。历史的教训640KB 够用吗1981 年IBM PC 的设计者们认为 640KB 内存 “应该够用了”。这成为计算机历史上最著名的错误预言。今天当我们说 128K 上下文“已经很大了”时正在犯同样的错误。上下文窗口Context Window 是 LLM 最稀缺的资源。128K tokens 看起来很大但考虑到各种开销占用 系统提示词占用 10-20K工具定义占用 10-20K上下文文档占用 50-80K …… 留给实际对话的空间可能只剩小几十K。这就像 1980 年代的 640KB 限制一样窘迫。虚拟内存操作系统的革命性创新回顾操作系统历史虚拟内存是 Unix 最重要的创新之一。在虚拟内存出现之前程序员必须自己管理物理内存分配。如果程序需要的内存超过物理内存就只能崩溃或手动实现复杂的换入换出逻辑。虚拟内存改变了这一切——它给每个程序一个幻觉好像它拥有整个地址空间。操作系统在背后自动处理页面置换把不常用的数据换出到磁盘需要时再换入。这个抽象释放了巨大的生产力——程序员不再需要关心物理内存的限制。在 Agent 世界我们正需要同样的革命。Manus 的启示上下文至关重要Manus 是 2025 年最成功的通用 Agent 之一他们的团队在博客 Context Engineering for AI Agents[1] 中分享了一个核心结论“大多数 Agent 的失败不是模型的失败——而是 Context 的失败。”这不是空谈。Manus 团队为此重写了四次框架通过反复试错总结出几个关键实践**KV-Cache 命中率是最重要的指标。缓存命中 ≈ 模型不用重复 “重新读一遍整本书”。 在 Claude 上缓存命中的 token 成本是未命中的 1/10这意味着 Context 的组织方式至关重要直接决定了 Agent 的成本和延迟。文件系统作为外部记忆。Manus 把文件系统当作无限 Context的外挂存储。Agent 可以随时写入和读取文件相当于一个低成本的虚拟内存。这是对 swap 的天然映射——当 RAM 不够时把不常用的数据换出到磁盘。Todo List 作为注意力操控。他们发现让 Agent 在每一步开始时复述当前的 todo list可以有效防止目标漂移。这本质上是一种缓存预热技巧——把重要信息预热到高速缓存里增加其被注意到的概率。DeepSeek 的启示内存层次结构DeepSeek 在 2026 年 1 月发表的 Engram 论文[2] 提供了另一个关键视角存储层次结构。他们发现了一个U 型曲线——最优的资源分配是 75-80% 给Brain计算20-25% 给Book记忆。这个比例揭示了一个深刻洞察 Agent 不应该把所有信息都塞进 Context全放 RAM也不应该完全依赖外部检索全放磁盘而是需要一个智能的分层架构。这就与计算机的存储层级体系能完美对上关键洞察是越往上越快、越贵、越小需要自动管理就像 CPU 不需要程序员手动管理 L1/L2 Cache需要智能换入换出。有人会说长上下文难道不能解决这个问题吗——内存不够加钱就好了。但即使 Context Window 变成 10M tokens我们仍然需要智能的内存管理。就像 64GB RAM 的电脑仍然需要虚拟内存 —— 高效的资源管理本身就是 OS 的核心价值。老冯的 64G 笔记本被 Word 吃了 200G 内存竟然没立即死掉三、外存数据库确定性最高的机会当我们讨论内存管理时一个自然的问题浮现换出去的数据存在哪里在传统操作系统中答案是磁盘。在 Agent OS 中目前通常是文件系统上的 Markdown 文档但最终的答案一定是数据库。如果说 Context Engineering 是最复杂的技术战场那么数据库则是确定性最高的商业机会。微软 CEO 纳德拉早就看到了这个终局 —— 数据库是 IT 的核心所有的应用本质上都是数据库的封装层数据库是 IT 的核心所有的应用本质上都是数据库的封装层。 AI 会重做一切应用与流程软件但这也离不开数据库——Agent 最终会替代掉所有的包装直接操作数据库。数据库在 Agent 架构中的多重角色数据库在 Agent 架构中要扮演什么角色答案是远不只是“存数据”。1.长期记忆存储Agent 的海马体——对话历史、学到的知识、用户偏好2.状态持久化Agent 的硬盘——Checkpoint/快照、任务状态、恢复点3.向量索引Agent 的页表——语义检索、相似度匹配、Context 换入决策4.协调服务Agent 的IPC 机制——分布式锁、任务队列、事件通知5.审计日志Agent 的黑匣子——所有操作的不可篡改记录、合规、可重放对于需要同时承担上述五重角色的 Agent 存储层PostgreSQL 是目前最有竞争力的选项原因有二统一的数据平面。 关系模型、向量嵌入pgvector、全文搜索、JSON、时序数据——可以在单一数据库中使用 ACID / SQL 统一处理不需要维护多套系统与胶水组件。模型的原生熟悉度。PostgreSQL 是全世界最流行的数据库前沿 LLM 在海量 PostgreSQL 文档上训练过Agent 调用psql工具或者写 PG 的 SQL 几乎不需要额外 Schema 提示。这不是玄学是训练数据分布决定的。市场也在验证这个方向2025 年 Databricks 收购 Neon、Snowflake 收购 Crunchy DataPostgreSQL 生态公司估值屡创新高。 Neon 披露的一个数据尤其值得注意他们 80% 的数据库是由 AI Agent 而非人类创建的。PostgreSQL 的上限在哪里一种更激进更有趣的可能性是PostgreSQL 不只扮演存储而成为 Runtime 本身。 PostgreSQL 极致的可扩展性与繁荣的扩展生态让它已经具备了一个 完整 Runtime 所需的几乎所有原语。理论上psql命令行功能是 bash 的超集未必就没有机会成为 Yet another runtime —— 这时候数据库就不再扮演一个外部存储而成为编排核心。 这条路能走多远还需要验证但 “Database as Runtime” 这个方向确实很有趣这也是老冯正在探索的道路。进程管理表面红海深水无人当前所有 Agent 框架的核心几乎都是同一个 while loop。while not done: thought llm.think(context) action llm.decide(thought) result tools.execute(action) context.update(result)Think → Act → Observe → Repeat。LangGraph、CrewAI、AutoGen …… 剥开花哨的外衣内核惊人地相似。 Braintrust 的工程师直接撰文宣称“The canonical agent architecture is a while loop with tools”。当核心抽象简单到任何本科生都能实现时它就不可能成为护城河。 更致命的是模型厂商天然拥有最好的 RuntimeOpenAI 的 Assistants API、Anthropic 的 Claude Code 本身就是顶级的 Agent 执行环境。 云厂商也在收割Azure Agent Loop、Google ADK、AWS Bedrock Agents——当 Runtime 成为平台标配独立框架公司还能卖什么所以表面上看这是一片红海。但这里有一个认知陷阱大家卷的那个 “Agent Loop”根本不是真正的进程管理。 如果认真用操作系统来类比进程管理远不止一个 while loop。它至少包括•并发调度多个 Agent 同时运行谁先用 GPU谁先调 API资源如何分配•状态持久化Agent 跑到一半崩了怎么从断点恢复•进程间通信Agent A 的输出要传给 Agent B用什么协议共享状态怎么同步•优雅终止怎么让 Agent 安全退出而不是直接 kill -9这些问题目前的框架几乎都没有好答案。原因很简单现在大多数 Agent 应用还停留在 “单 Agent、短任务、一次性执行” 的阶段 —— 就像 DOS 时代的单任务程序根本不需要复杂的进程管理。弄个 Happy / IM 软件 对接一下聊天派活可能也就够了。但这个阶段不会持续太久。当 Agent 开始变成长时间运行的后台服务——比如一个 7×24 监控数据库的 DBA Agent或者一个持续处理工单的客服 Agent —— 真正的进程管理需求就会浮现。届时谁能提供可靠的调度、恢复、通信机制谁就能在这片伪红海中找到真正的蓝海。I/O 管理协议之争的表象与本质工具调用是 Agent 与外部世界交互的接口相当于传统 OS 的设备驱动。这个领域正在火爆但表面的“协议之争”可能掩盖了更本质的问题。 MCP 在采用度上取得了巨大成功。 Anthropic 称已有超过 10,000 个活跃 MCP 服务器每月 9,700 万次 SDK 下载并于 12 月捐赠给了 Linux 基金会。One Year of MCP, Anthropic[3]但采用度不等于技术先进性。MCP 的成功很大程度上是因为它填补了一个“易用性”的空白 —— 让非技术用户也能给 Agent 接入工具。 然而从架构视角看它可能走了弯路•Token 开销惊人MCP 服务器仅工具元数据就可能消耗上万 tokens[4]而等效的 CLI 方案可能只需要几百•重新发明轮子MCP 试图解决的工具发现、调用、组合问题Unix CLI 已经优雅地做了 55 年CLI 的优势被严重低估了。所有前沿模型都在海量的 CLI 文档、man pages、Stack Overflow 上训练过。 当你让 Claude 用grep、psql、curl它几乎不需要额外的 Schema 定义 —— 这些工具的用法已经内化在模型权重里了。 更重要的是CLI 天然符合 Unix 哲学文本流、管道组合、单一职责。这正是 Agent 需要的可组合性。 Unix 生态已经有了 55 年的积累我们应该站在巨人的肩膀上而不是另起炉灶。但 CLI 也不是完美的终点。它有几个致命问题输出格式不一致有的 JSON、有的表格、有的纯文本、错误处理五花八门、缺乏标准化的发现机制。 这就是为什么 Skills 作为一种CLI 使用指南出现了 —— 它本质上是在弥补 CLI 文档不够 Agent-friendly 的问题。我的判断是最终的赢家不会是 MCP也不会是裸 CLI而是 “Agent-native CLI”—— 输出结构化、错误码标准化、自带发现机制的命令行工具。 设想一下每个命令都有--json输出选项错误码遵循统一的语义如 HTTP 状态码 自带--desc参数输出机器可读的能力描述。 这不需要发明新协议只需要让现有工具变得更规范 —— 就像 RESTful API 没有发明 HTTP只是让它更有章法。老冯昨天发布了 PostgreSQL 的 CLI 工具 pig v1.0以及收录/介绍 PG 扩展能力的 pgext.cloud在 PG 生态里践行这条道路。安全与可观测性信任基础设施当前 Agent 生态最大的安全隐患是什么Prompt Injection提示词注入——但这只是冰山一角。更深层的问题是我们如何信任一个会自主行动的系统Prompt Injection 是 AI 时代的 Buffer Overflow。传统的缓冲区溢出是因为程序没有区分 “指令” 和 “数据”攻击者可以在数据区写入指令让 CPU 执行。Prompt Injection 本质上是同样的问题LLM 没有在架构层面区分 “System Prompt指令” 和 “User Input数据” 。一个恶意的用户输入——甚至是 Agent 读取的一个恶意网页——就可以劫持 Agent 的行为。这个类比揭示了一个残酷的现实Buffer Overflow 花了几十年才有了硬件级别的缓解方案NX bit、ASLR、Stack Canary。Prompt Injection 目前没有任何架构级别的解决方案——我们只能靠“请不要做坏事”的 prompt 和各种启发式检测。这不是一个稳定的平衡态。沙箱是必要的但远远不够。E2B 已经被 88% 的 Fortune 100 公司使用[5]Firecracker 微虚拟机被 Manus 等产品采用。沙箱的逻辑是即使 Agent 被骗了它也造不成太大伤害。这是对的但它解决的是限制能力而不是理解行为。这就是为什么可观测性可能比沙箱更重要。想象一个场景你的 Agent 在沙箱里安全地运行了一周没有触发任何告警。但你完全不知道它做了什么决策、为什么做这些决策、有没有被恶意输入试探过。这种安全是虚假的——你只是不知道自己不知道什么。真正的信任需要三层基础设施可观测性的核心是 “决策溯源”Agent 看到了什么输入它的 reasoning 过程是什么它为什么选择了这个 action 而不是那个 这些信息不仅对安全至关重要对调试和改进同样不可或缺。当 Agent 出错时你需要能够回放整个决策过程就像数据库的 WAL 让你可以重放事务一样。审计日志是合规刚需。金融、医疗、政府——这些行业对审计有严格要求。当一个 Agent 替客户做了交易决策当一个 Agent 给出了医疗建议监管机构会问 它为什么这么做依据是什么这不是可选项而是市场准入的门槛。我预测2026-2027 年“Agent 可观测性” 会成为一个独立的赛道就像 APM应用性能监控在云原生时代的爆发一样。谁能提供完整的 Agent trace——从输入到推理到行动到结果——谁就能在企业市场占据关键位置。沙箱解决的是不信任的问题可观测性解决的是建立信任的问题。两者缺一不可但后者的商业价值可能更大。老冯最近刚为 Claude Code 做了一个可观测性方案可以看到它决策操作的完整详情。结语缺失的内核1991 年GNU 项目已经运转了八年。Richard Stallman 和他的追随者们构建了一整套自由软件工具 GCC 编译器、Emacs 编辑器、Bash shell、coreutils……几乎涵盖了操作系统的方方面面。——唯独缺少一个内核。GNU 自己的内核 Hurd 陷入了无尽的设计争论迟迟无法完成。所有的工具都已就位却缺少那个把一切粘合在一起的核心。就在这时一个芬兰大学生在邮件列表里发了一个帖子“I’m doing a (free) operating system (just a hobby, won’t be big and professional like gnu)…”他写的那个业余爱好填补了最后一块拼图。GNU 的工具加上 Linux 的内核构成了我们今天所说的 GNU/Linux —— 云时代的基石。2025 年的 Agent 生态正处在同样的时刻。我们有了大量的工具LangChain、CrewAI、AutoGen 等框架解决了任务编排MCP、Skills 解决了工具调用 PostgreSQL 解决了持久化存储各种 RAG 方案解决了知识检索E2B、Firecracker 解决了安全隔离……但我们缺少一个新的 “Agent OS Kernel” —— 一个真正能把这一切粘合起来的操作系统层 统一的上下文调度、可恢复的进程状态、标准化的 I/O 接口、完整的信任基础设施与可观测性。这个内核也许正躲在某个人的 side project 里就像 1991 年的 Linux 一样——不起眼没有引发关注被作者自己称为 “只是个爱好”。但它将成为未来。历史的剧本已经写好•内存管理将是最复杂的技术战场——谁能让 Context 像虚拟内存一样透明地换入换出谁就能定义下一代基础设施•数据库是确定性最高的商业机会——PostgreSQL 不仅是存储更有潜力成为 Runtime•进程管理表面红海深水无人——当 Agent 成为长期运行的服务真正的调度和恢复需求才会浮现•I/O的终局不是新协议而是 Agent-Native CLI —— 55 年的 Unix 哲学不会被轻易颠覆•信任层将成为企业市场的入场券 —— 沙箱是底线可观测性才是关键真正的分水岭不是模型变得更强而是系统能力的补齐。这套东西一旦成型Agent 才会从 “会写代码的玩具” 变成 “可以托付业务的进程”。谁会写出 Agent 时代的 Linux 内核我不知道。也许是某个小作坊 说不定是石破天老爷子的 DBOS或者是老冯的 Pigsty PG 集装箱 —— 这是一个充满机会与可能性的时代在历史的转折节点上一切皆有可能。1980 年代有人在车库里写 DOS 程序1990 年代有人在宿舍里写 Linux 内核。 202x 的某个深夜也许正有人在某个终端里敲下 Agent OS 的第一行代码。 谁在构建这些基础设施谁就在定义下一个时代。如何系统的学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】01.大模型风口已至月薪30K的AI岗正在批量诞生2025年大模型应用呈现爆发式增长根据工信部最新数据国内大模型相关岗位缺口达47万初级工程师平均薪资28K数据来源BOSS直聘报告70%企业存在能用模型不会调优的痛点真实案例某二本机械专业学员通过4个月系统学习成功拿到某AI医疗公司大模型优化岗offer薪资直接翻3倍02.大模型 AI 学习和面试资料1️⃣ 提示词工程把ChatGPT从玩具变成生产工具2️⃣ RAG系统让大模型精准输出行业知识3️⃣ 智能体开发用AutoGPT打造24小时数字员工熬了三个大夜整理的《AI进化工具包》送你✔️ 大厂内部LLM落地手册含58个真实案例✔️ 提示词设计模板库覆盖12大应用场景✔️ 私藏学习路径图0基础到项目实战仅需90天第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询