做的网站如何发更新wordpress sae 插件
2026/2/22 13:38:41 网站建设 项目流程
做的网站如何发更新,wordpress sae 插件,全国工厂的网站建设,厦门抖音代运营公司我们提到#xff0c;智能体之所以比单纯的语言模型强大#xff0c;是因为它拥有了“手”和“脚”——也就是使用工具的能力。 智能体 大语言模型#xff08;大脑#xff09; 规划#xff08;前额叶#xff09; 工具#xff08;手脚#xff09; 理论说得再多#xf…我们提到智能体之所以比单纯的语言模型强大是因为它拥有了“手”和“脚”——也就是使用工具的能力。智能体 大语言模型大脑 规划前额叶 工具手脚理论说得再多终究要落地。今天我们就来聊聊如何通过MCP (Model Context Protocol)协议真正的让你的智能体“动”起来。我们将以一个实际场景为例写一段代码让AI自动把一篇文章发布到微信公众号。什么是 MCP在开始写代码之前得先解决一个痛点。以前我们要让 GPT 连接外部工具比如读取文件、搜索网页、操作数据库通常需要针对不同的 API 写一大堆胶水代码。如果你用LangChain你得遵循它的接口规范如果你换个框架可能全得重写。MCP (Model Context Protocol)就是 AI 时代的USB-C 接口。它是由 Anthropic 等公司推动的一个开放标准。MCP Server提供工具比如文件读取服务、微信发布服务。MCP Client也就是我们的智能体负责连接模型和服务端。LLM负责决策调用哪个工具。只要大家遵循这个协议你的智能体就可以无缝连接任何支持 MCP 的工具而不需要关心底层的具体实现。实战构建公众号发布智能体接下来我们通过一段Node.js代码演示如何把一个本地 Markdown 文件通过 MCP 服务发布到微信公众号。1. 准备工作在这个例子中我们需要三个角色的配合大脑一个支持 Function Calling 的大模型如 GPT-4o 或 DeepSeek 等兼容 OpenAI 格式的模型。工具箱 (MCP Server)这里我们使用 文颜 MCP这是一个封装了微信公众号发布功能的 MCP 服务我们通过 Docker 运行它。智能体 (MCP Client)我们自己写的这段 JS 代码。2. 连接 MCP 服务首先我们需要建立与 MCP Server 的连接。在代码中我们通过StdioClientTransport来启动一个 Docker 容器作为我们的工具服务。import { Client } from modelcontextprotocol/sdk/client/index.js; import { StdioClientTransport } from modelcontextprotocol/sdk/client/stdio.js; // ... 环境变量检查代码 ... const pwd process.cwd(); // 建立传输通道通过 Docker 运行 wenyan-mcp 服务 const transport new StdioClientTransport({ command: docker, args: [ run, --rm, -i, // 必须开启交互模式以便通过 stdio 通信 --env-file, .env.test, // 传入公众号的 AppID 等凭证 -e, HOST_FILE_PATH${pwd}, -v, ${pwd}:/mnt/host-downloads, // 挂载目录让容器能读取到文章 caol64/wenyan-mcp, ], }); const client new Client( { name: wenyan-client, version: 1.0.0 }, { capabilities: {} } ); await client.connect(transport);这段代码对应了上一篇提到的**“工具使用”**的前提——智能体得先能拿得起工具。3. 获取工具列表连接成功后智能体需要知道自己有哪些工具可用。这对应了理论篇中的**“问题分类”**准备阶段只有知道有哪些工具模型才能决定用哪个。// 获取 MCP 服务端提供的所有工具 const mcpResponse await client.listTools(); // 将 MCP 的工具定义转换为 OpenAI 兼容的 Function Calling 格式 const openaiTools mcpResponse.tools.map((tool) ({ type: function, function: { name: tool.name, description: tool.description, parameters: tool.inputSchema, // MCP 的 schema 通常直接兼容 }, }));此时openaiTools里就装满了诸如publish_article之类的方法描述。4. 思考与决策现在进入核心环节。我们将文章内容和需求告诉 LLM让它自己判断该做什么。const llmClient new OpenAI({ apiKey: LLM_API_KEY, baseURL: LLM_BASE_URL }); const content ./test/publish.md; // 待发布的文章路径 // 用户的指令既包含了目标发布也包含了参数使用 phycat 主题 const userPrompt { role: user, content: 使用phycat主题将这篇文章发布到微信公众号\n\n${content} }; // 第一轮对话询问 LLM const response await llmClient.chat.completions.create({ model: LLM_MODEL, messages: [userPrompt], tools: openaiTools, // 把工具箱展示给它 tool_choice: auto, // 让模型自己决定是否用工具 });在这里模型会分析userPrompt。它发现你的意图是“发布”并且它看到了openaiTools里有一个能发布的工具于是它不会直接回答“好的”而是会返回一个tool_calls请求。5. 执行工具与反馈智能体捕获到模型的调用请求真正的去执行操作并将结果反馈给模型。这就是**“优化答案”**的前奏。const assistantMessage response.choices[0].message; if (assistantMessage.tool_calls) { for (const toolCall of assistantMessage.tool_calls) { const name toolCall.function.name; const args JSON.parse(toolCall.function.arguments); // 关键步骤通过 MCP Client 真正的调用 Docker 里的服务 const result await client.callTool({ name: name, arguments: args, }); // 获取工具执行结果比如发布成功的链接 const toolContent result.content.map((item) item.text).join(\n); // 将结果拼接回对话历史 const finalMessages [ userPrompt, assistantMessage, { role: tool, tool_call_id: toolCall.id, content: toolContent, }, ]; // 第二轮对话让 LLM 根据工具执行结果给用户一个最终回复 const finalResponse await llmClient.chat.completions.create({ model: LLM_MODEL, messages: finalMessages, }); console.log(finalResponse.choices[0].message.content); } }发生了什么让我们回顾一下整个流程User: 帮我把publish.md发到公众号。LLM: (思考我不能直接操作微信但我有一个叫publish_article的工具。我需要提取参数文件路径和主题。) -发出指令。Agent (JS代码): 收到指令通过 MCP 协议告诉 Docker 容器里的服务“嘿运行一下这个函数”。MCP Server: 执行实际的 API 调用转换 Markdown上传素材保存到草稿箱返回结果“发布成功文章链接是 xxx”。LLM: 收到结果组织语言。 -最终回复: 您的文章已成功发布使用了 phycat 主题链接如下xxx。总结通过引入 MCP我们把“智能体”的代码写得非常通用。注意到了吗上面这段代码里没有任何一行是关于微信 API 的具体实现的。如果不加载wenyan-mcp而是换成一个filesystem-mcp这段代码逻辑几乎不用变智能体就能拥有操作文件的能力。这就是现代智能体架构的魅力大模型负责逻辑MCP 负责能力智能体程序负责连接。学习资源推荐如果你想更深入地学习大模型以下是一些非常有价值的学习资源这些资源将帮助你从不同角度学习大模型提升你的实践能力。一、全套AGI大模型学习路线AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能​因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取二、640套AI大模型报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示​因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取三、AI大模型经典PDF籍随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取四、AI大模型商业化落地方案作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询