iis7.5 发布网站网新中英企业网站管理系统
2026/4/3 3:32:51 网站建设 项目流程
iis7.5 发布网站,网新中英企业网站管理系统,建站优化办事效率高,网页图片尺寸2025年以来#xff0c;我们正站在人工智能应用演进的一个关键节点上#xff0c;从预测式AI#xff08;分析模式、进行分类#xff09;到生成式AI#xff08;创造文本、代码、图像#xff09;#xff0c;我们如今正迈向第三个阶段#xff1a;AI Agent。 这并非简单的技术…2025年以来我们正站在人工智能应用演进的一个关键节点上从预测式AI分析模式、进行分类到生成式AI创造文本、代码、图像我们如今正迈向第三个阶段AI Agent。这并非简单的技术迭代而是一次根本性的范式转变第三个阶段AI Agent随着模型的不断进化能自主可控长时间运行可能2026才是AI普及的开始。一、什么是 AI Agent传统软件或者工作流的目的是为了用户能够简化和自动化工作流而AI Agent则能够以高度的独立性代表用户执行为实现用户目标的一系列步骤。首先集成了LLM但不用它们来控制工作流执行的应用程序例如简单的聊天机器人、单轮对话LLM或情感分类器不是称为智能体。更具体地说一个智能体拥有使其能够可靠、一致地代表用户行动的核心特征能利用LLM来管理工作流执行并做出决策它能识别工作流何时完成并能在需要时主动纠正其行为如果失败它可以停止执行并将控制权交还给用户。能够访问各种工具以与外部系统交互既能获取上下文也能采取行动并根据工作流的当前状态动态选择适当的工具始终在明确定义的安全内运行。是不是现在智能体很多所有的工作都用智能体来解决智能体适合那些传统的、确定性的、基于规则的方法难以处理的工作流所以对于能通过一些确定性编程或者流程就能解决的其实不太需要智能体。以支付欺诈分析为例传统的规则引擎就像一个检查清单根据预设标准标记交易相比之下LLM智能体更像一位经验丰富的调查员评估上下文考虑细微模式即使在没有明确违反规则的情况下也能识别可疑活动这种细致的推理能力正是智能体能够有效管理复杂、模糊情况的关键。所以在评估智能体可以在哪些地方的确有价值请优先考虑那些以前难以自动化、尤其是传统方法遇到阻力的工作流复杂决策涉及细微判断、例外情况或上下文敏感决策的工作流。难以维护的规则由于规则集庞大且复杂而变得笨重、更新成本高昂或容易出错的系统。重度依赖非结构化数据涉及解读自然语言、从文档中提取含义或与用户进行对话式交互的场景。二、AI Agent的构成模型为智能体的推理和决策提供动力的LLM决定了智能体的下限。工具智能体可用于采取行动的外部函数或API。指令定义智能体行为的明确指导方针和安全策略。样例代码from langchain_openai import ChatOpenAIfrom langchain.agents import AgentExecutor, create_react_agentfrom langchain.tools import toolfrom langchain_core.prompts import PromptTemplateimport os# # 第一部分定义工具Tools# 工具是Agent可以调用的外部函数扩展了LLM的能力# tooldef calculator(expression: str) - str: 计算数学表达式。 输入应该是一个有效的数学表达式如 2 2 或 3 * 4 5。 try: # 安全地计算数学表达式 result eval(expression, {__builtins__: {}}, {}) returnf计算结果: {expression} {result} except Exception as e: returnf计算错误: {str(e)}tooldef get_current_weather(city: str) - str: 获取指定城市的当前天气信息。 输入应该是城市名称如 北京 或 上海。 # 模拟天气数据实际应用中应调用真实的天气API weather_data { 北京: 晴天温度 5°C湿度 30%, 上海: 多云温度 12°C湿度 65%, 广州: 小雨温度 18°C湿度 80%, 深圳: 晴天温度 20°C湿度 70%, } return weather_data.get(city, f抱歉暂无{city}的天气信息)tooldef search_knowledge(query: str) - str: 搜索知识库获取相关信息。 输入应该是要搜索的问题或关键词。 # 模拟知识库搜索实际应用中可接入向量数据库或搜索引擎 knowledge_base { python: Python是一种高级编程语言以简洁易读著称广泛应用于数据科学、Web开发和人工智能领域。, agent: AI Agent智能体是能够感知环境、做出决策并采取行动的自主系统。它由模型、工具和指令三部分组成。, langchain: LangChain是一个用于开发LLM应用的框架提供了构建Agent、链式调用、记忆管理等功能。, } for key, value in knowledge_base.items(): if key in query.lower(): return value returnf未找到与{query}相关的信息# # 第二部分定义指令Instructions# 通过Prompt模板定义Agent的行为方式和安全策略# # ReAct风格的Prompt模板AGENT_PROMPT 你是一个智能助手能够帮助用户完成各种任务。你可以使用以下工具:{tools}工具名称列表: {tool_names}请按照以下格式回答问题:Question: 用户的输入问题Thought: 你需要思考应该做什么Action: 要使用的工具名称必须是[{tool_names}]中的一个Action Input: 工具的输入参数Observation: 工具返回的结果... (这个Thought/Action/Action Input/Observation可以重复多次)Thought: 我现在知道最终答案了Final Answer: 对用户问题的最终回答重要指导方针1. 仔细分析用户的问题选择合适的工具2. 如果问题可以直接回答无需使用工具3. 回答要准确、简洁、有帮助4. 如果不确定诚实地说明开始Question: {input}Thought: {agent_scratchpad}# # 第三部分创建Agent# 组合模型、工具和指令# def create_simple_agent(): 创建一个简单的Agent # 1. 初始化模型Model # 这里使用OpenAI的GPT模型你也可以替换为其他LLM llm ChatOpenAI( modelgpt-3.5-turbo, # 或 gpt-4 temperature0, # 设为0使输出更确定性 # api_keyos.getenv(OPENAI_API_KEY), # 从环境变量获取 ) # 2. 准备工具列表Tools tools [calculator, get_current_weather, search_knowledge] # 3. 创建Prompt模板Instructions prompt PromptTemplate.from_template(AGENT_PROMPT) # 4. 创建ReAct Agent agent create_react_agent( llmllm, toolstools, promptprompt ) # 5. 创建Agent执行器 agent_executor AgentExecutor( agentagent, toolstools, verboseTrue, # 打印详细的执行过程 handle_parsing_errorsTrue, # 处理解析错误 max_iterations5, # 最大迭代次数防止无限循环 ) return agent_executor# # 第四部分运行示例# def main(): 运行Agent示例 print( * 60) print(LangChain Agent 示例) print( * 60) # 创建Agent agent create_simple_agent() # 测试用例 test_questions [ 计算 (15 25) * 3 等于多少, 北京今天天气怎么样, 什么是LangChain, 帮我计算一下如果北京温度是5度上海是12度它们的平均温度是多少, ] for i, question in enumerate(test_questions, 1): print(f\n{*60}) print(f测试 {i}: {question}) print( * 60) try: result agent.invoke({input: question}) print(f\n最终答案: {result[output]}) except Exception as e: print(f执行出错: {str(e)})if __name__ __main__: main()选择模型不同的模型在任务复杂性、延迟和成本方面有不同的优势和权衡并非每个任务都需要最聪明的模型——一个简单的检索或意图分类任务可以由更小、更快的模型处理而困难任务则可能需要能力更强的推理模型。选择模型有效的方法是使用能力最强的模型为每个任务构建您的智能体原型以建立性能基线然后尝试换用更小的模型看看它们是否仍能达到可接受的结果。 这样您就不会过早地限制智能体的能力并且可以诊断出更小的模型在何处成功或失败总之选择模型的原则很简单建立评估体系以确定性能基线。专注于使用可用的最佳模型达到您的准确率目标。在可能的情况下用更小的模型替换更大的模型以优化成本和延迟。定义工具工具通过使用底层应用程序或系统的API来扩展智能体的能力对于没有提供API的历史系统智能体可以依赖计算机使用模型通过Web和应用程序UI直接与这些应用程序和系统交互——就像人类一样进行黑盒测试。每个工具都应具有标准化的定义从而实现工具与智能体之间灵活的多对多关系文档完善、经过充分测试且可重用的工具可以提高可发现性简化版本管理并防止重复定义广义上说智能体需要三种类型的工具。类型描述示例数据工具使智能体能够检索执行工作流所需的上下文和信息比如查询交易数据库或CRM等系统读取PDF文档或搜索网络。行动工具使智能体能够与系统交互以采取行动例如向数据库添加新信息、更新记录或发送消息发送电子邮件和短信更新CRM记录将客户服务工单转交给人工。编排工具智能体本身可以作为其他智能体的工具作为多智能体系统中单个sub agent。配置Prompt高质量的Prompt对于任何LLM驱动的应用程序都至关重要对智能体尤其关键清晰的指令可以减少歧义提高智能体的决策质量从而实现更顺畅的工作流执行和更少的错误。具体做法可以参考如下利用现有文档在创建流程时使用现有的操作程序、支持脚本或策略文档来创建例如Claude提出的Skill其他模型比较通用的AGENTS.md等。提示智能体分解任务从密集的资源中提供更小、更清晰的步骤有助于最小化歧义并帮助模型更好地遵循指令。定义清晰的动作确保流程中的每一步都对应一个特定的动作或输出例如一个步骤可能指示智能体向用户询问订单号或调用API来检索账户详情明确说明动作甚至面向用户消息的措辞可以减少解释错误的空间。控制边界处理现实世界的交互经常会产生决策点例如当用户提供不完整信息或提出意外问题时如何继续一个健壮的流程应预见常见的变体并包含如何处理它们的指令例如使用条件步骤或分支如果缺少必要信息则执行替代步骤。三、从 MCP到 A2AAI Agent为了和多个其他系统交互衍生了两种系统交互的协议MCP和A2A。MCPMCP在之前的文章已经讲过了https://mp.weixin.qq.com/s/qHfSbSjoxl9V5e8MvVMbZA一种开放协议可标准化应用向 LLM 提供上下文的方式MCP提供了一种将模型连接到资源、提示和工具的标准化方式。样例代码如下import loggingimport osimport httpxfrom fastmcp import FastMCPlogger logging.getLogger(__name__)logging.basicConfig(format[%(levelname)s]: %(message)s, levellogging.INFO)mcp FastMCP(Currency MCP Server )mcp.tool()def get_exchange_rate( currency_from: str USD, currency_to: str EUR, currency_date: str latest,): Use this to get current exchange rate. Args: currency_from: The currency to convert from (e.g., USD). currency_to: The currency to convert to (e.g., EUR). currency_date: The date for the exchange rate or latest. Defaults to latest. Returns: A dictionary containing the exchange rate data, or an error message if the request fails. logger.info(f--- ️ Tool: get_exchange_rate called for converting {currency_from} to {currency_to} ---) try: response httpx.get( fhttps://api.frankfurter.app/{currency_date}, params{from: currency_from, to: currency_to}, ) response.raise_for_status() data response.json() ifratesnotin data: return {error: Invalid API response format.} logger.info(f✅ API response: {data}) return data except httpx.HTTPError as e: return {error: fAPI request failed: {e}} except ValueError: return {error: Invalid JSON response from API.}if __name__ __main__: logger.info(f MCP server started on port {os.getenv(PORT, 8080)}) asyncio.run( mcp.run_async( transporthttp, host0.0.0.0, portos.getenv(PORT, 8080), ) )以上代码是汇率的MCP Server通过MCP Client可以获取汇率数据。Agent2Agent (A2A)Agent2Agent (A2A) 协议是一种开放标准旨在让 AI 智能体之间实现无缝通信和协作正如 MCP 提供了一种标准化的方式来让 LLM 访问数据和工具一样A2A 也提供了一种标准化的方式来让智能体与其他智能体对话在一个智能体由不同供应商使用各种框架构建的世界中A2A 提供了一种通用语言打破了孤岛并促进了互操作性。A2A的工作原理发现使用标准化的Agent Card查找其他智能体技能AgentSkill和功能AgentCapabilities协议安全的交换消息和数据协作委派任务给到相应技能的Agent并协调行动样例代码如下import loggingimport osimport clickfrom a2a.server.apps import A2AStarletteApplicationfrom a2a.server.request_handlers import DefaultRequestHandlerfrom a2a.server.tasks import InMemoryTaskStorefrom a2a.types import ( AgentCapabilities, AgentCard, AgentSkill,)from agent import ImageGenerationAgentfrom agent_executor import ImageGenerationAgentExecutorfrom dotenv import load_dotenvload_dotenv()logging.basicConfig(levellogging.INFO)logger logging.getLogger(__name__)class MissingAPIKeyError(Exception): Exception for missing API key.click.command()click.option(--host, host, defaultlocalhost)click.option(--port, port, default10001)def main(host, port): Entry point for the A2A CrewAI Image generation sample. try: capabilities AgentCapabilities(streamingFalse) skill AgentSkill( idimage_generator, nameImage Generator, description( Generate stunning, high-quality images on demand and leverage powerful editing capabilities to modify, enhance, or completely transform visuals. ), tags[generate image, edit image], examples[Generate a photorealistic image of raspberry lemonade], ) agent_host_url ( os.getenv(HOST_OVERRIDE) if os.getenv(HOST_OVERRIDE) elsefhttp://{host}:{port}/ ) agent_card AgentCard( nameImage Generator Agent, description( Generate stunning, high-quality images on demand and leverage powerful editing capabilities to modify, enhance, or completely transform visuals. ), urlagent_host_url, version1.0.0, default_input_modesImageGenerationAgent.SUPPORTED_CONTENT_TYPES, default_output_modesImageGenerationAgent.SUPPORTED_CONTENT_TYPES, capabilitiescapabilities, skills[skill], ) request_handler DefaultRequestHandler( agent_executorImageGenerationAgentExecutor(), task_storeInMemoryTaskStore(), ) server A2AStarletteApplication( agent_cardagent_card, http_handlerrequest_handler ) import uvicorn uvicorn.run(server.build(), hosthost, portport) except MissingAPIKeyError as e: logger.error(fError: {e}) exit(1) except Exception as e: logger.error(fAn error occurred during server startup: {e}) exit(1)if __name__ __main__: main()四、从单智能体到多智能体单智能体单智能体的智能大部分场景下依赖基座模型在处理明确问题时较为高效对于约束性任务时较为准确并且可以进行回测但面对复杂、多领域任务时其能力往往受限。样例代码如下import asyncioimport nest_asynciofrom langchain_google_genai import ChatGoogleGenerativeAIfrom langchain_core.prompts import ChatPromptTemplatefrom langchain_core.tools import tool as langchain_toolfrom langchain.agents import create_tool_calling_agent, AgentExecutortry: # 初始化具备工具调用能力的模型 llm ChatGoogleGenerativeAI(modelgemini-2.0-flash, temperature0) print(f✅ 语言模型已初始化{llm.model})except Exception as e: print(f 初始化语言模型出错{e}) llm None# --- 定义工具 ---langchain_tooldef search_information(query: str) - str: print(f\n--- ️ 工具调用search_information, 查询{query} ---) # 用预设结果模拟搜索工具 simulated_results { default: f模拟搜索 {query}未找到具体信息但该主题很有趣。 } result simulated_results.get(query.lower(), simulated_results[default]) print(f--- 工具结果{result} ---) return resulttools [search_information]# --- 创建工具调用 Agent ---if llm: agent_prompt ChatPromptTemplate.from_messages([ (system, 你是一个乐于助人的助手。), (human, {input}), (placeholder, {agent_scratchpad}), ]) agent create_tool_calling_agent(llm, tools, agent_prompt) agent_executor AgentExecutor(agentagent, verboseTrue, toolstools)asyncdef run_agent_with_tool(query: str): 用 Agent 执行查询并打印最终回复。 print(f\n--- Agent 运行查询{query} ---) try: response await agent_executor.ainvoke({input: query}) print(\n--- ✅ Agent 最终回复 ---) print(response[output]) except Exception as e: print(f\n Agent 执行出错{e})asyncdef main(): 并发运行多个 Agent 查询。 tasks [ run_agent_with_tool(今天XXX天气怎么样), ] await asyncio.gather(*tasks)nest_asyncio.apply()asyncio.run(main())多智能体多智能体协作模式通过将系统结构化为多个独立且专用的智能体进行协作解决了单智能体的局限该模式基于任务分解原则将高层目标拆分为若干子问题并分配给具备相应工具、数据访问或推理能力的智能体。其中多智能体架构的运作方式用户查询通过主智能体主智能体创建专门的子智能体来并行搜索和处理不同信息样例如下执行流程。当用户提交查询时系统会创建一个主智能体该智能体进入迭代任务流程。主智能体首先会思考任务方法并将计划保存到内存中以持久化上下文信息因为如果上下文窗口超过 20 万个标记LLM会信息遗忘或者截断所以保留计划至关重要。然后它会创建专门的子智能体每个子智能体负责特定的任务。每个子智能体独立执行网络搜索使用交错思维评估工具结果并将结果返回给主智能体。主智能体综合这些结果并决定是否需要进行更多任务 —— 如果需要它可以创建更多子智能体或优化其策略。一旦收集到足够的信息系统就会退出循环并将所有结果传递给引文智能体。引文智能体处理文档和报告以确定具体的引文位置最终的结果包括引用将返回给用户。样例代码如下import asynciofrom typing import List, Dict, Anyfrom langchain_openai import ChatOpenAIfrom langchain.agents import AgentExecutor, create_tool_calling_agentfrom langchain_core.prompts import ChatPromptTemplatefrom langchain_core.tools import tool as langchain_toolfrom langchain_core.messages import HumanMessage, SystemMessage# # 多智能体系统示例# 架构主智能体 多个专用子智能体# # --- 初始化模型 ---llm ChatOpenAI(modelgpt-5, temperature0)# # 第一部分定义子智能体的工具# langchain_tooldef search_web(query: str) - str: 搜索网络获取最新信息。 print(f [网络搜索] 查询: {query}) # 模拟网络搜索结果 returnf网络搜索结果: 关于{query}的最新信息...langchain_tooldef search_database(query: str) - str: 搜索内部数据库获取结构化数据。 print(f️ [数据库搜索] 查询: {query}) # 模拟数据库查询 returnf数据库查询结果: {query}相关记录3条...langchain_tooldef analyze_data(data: str) - str: 分析数据并生成洞察。 print(f [数据分析] 分析: {data}) returnf分析结论: 基于{data}的数据分析完成...langchain_tooldef generate_report(content: str) - str: 根据内容生成报告。 print(f [报告生成] 内容: {content}) returnf报告已生成: 包含{content}的详细报告...# # 第二部分定义子智能体类# class SubAgent: 子智能体基类 def __init__(self, name: str, role: str, tools: list): self.name name self.role role self.tools tools self.agent_executor self._create_executor() def _create_executor(self) - AgentExecutor: prompt ChatPromptTemplate.from_messages([ (system, f你是{self.name}职责是{self.role}。专注完成分配的任务返回简洁结果。), (human, {input}), (placeholder, {agent_scratchpad}), ]) agent create_tool_calling_agent(llm, self.tools, prompt) return AgentExecutor(agentagent, toolsself.tools, verboseTrue) asyncdef execute(self, task: str) - Dict[str, Any]: 异步执行任务 print(f\n{*50}) print(f 子智能体 [{self.name}] 开始执行任务: {task}) print(f{*50}) result await self.agent_executor.ainvoke({input: task}) return {agent: self.name, task: task, result: result[output]}# # 第三部分创建主智能体协调者# class MasterAgent: 主智能体 - 负责任务分解和子智能体协调 def __init__(self): self.sub_agents self._create_sub_agents() self.memory [] # 用于持久化计划和中间结果 def _create_sub_agents(self) - Dict[str, SubAgent]: 创建专用子智能体 return { researcher: SubAgent( name研究员智能体, role负责网络搜索和信息收集, tools[search_web] ), data_analyst: SubAgent( name数据分析智能体, role负责数据库查询和数据分析, tools[search_database, analyze_data] ), reporter: SubAgent( name报告智能体, role负责整合信息并生成最终报告, tools[generate_report] ), } asyncdef _decompose_task(self, query: str) - List[Dict[str, str]]: 使用LLM分解任务 print(f\n 主智能体正在分析任务: {query}) # 使用LLM进行任务分解 response await llm.ainvoke([ SystemMessage(content你是一个任务分解专家。将用户查询分解为子任务。返回格式(每行一个): agent_type|task_description可用的agent_type: researcher, data_analyst, reporter), HumanMessage(contentf分解任务: {query}) ]) # 解析任务分解结果 tasks [] for line in response.content.strip().split(\n): if|in line: agent_type, task_desc line.split(|, 1) agent_type agent_type.strip().lower() if agent_type in self.sub_agents: tasks.append({agent: agent_type, task: task_desc.strip()}) # 默认任务流程如果LLM分解失败 ifnot tasks: tasks [ {agent: researcher, task: f搜索关于{query}的信息}, {agent: data_analyst, task: f分析{query}相关数据}, {agent: reporter, task: 整合以上结果生成报告}, ] # 保存计划到内存 self.memory.append({type: plan, tasks: tasks}) print(f 任务分解完成共{len(tasks)}个子任务) return tasks asyncdef _execute_parallel_tasks(self, tasks: List[Dict]) - List[Dict]: 并行执行子任务 print(f\n 开始并行执行 {len(tasks)} 个子任务...) # 创建并行任务 coroutines [] for task_info in tasks: agent self.sub_agents[task_info[agent]] coroutines.append(agent.execute(task_info[task])) # 并行执行所有子智能体任务 results await asyncio.gather(*coroutines, return_exceptionsTrue) # 处理结果 valid_results [] for r in results: if isinstance(r, Exception): print(f⚠️ 子任务执行失败: {r}) else: valid_results.append(r) self.memory.append({type: result, data: r}) return valid_results asyncdef _synthesize_results(self, results: List[Dict]) - str: 综合所有子智能体结果 print(f\n 主智能体正在综合 {len(results)} 个结果...) # 构建综合提示 results_text \n.join([ f- {r[agent]}: {r[result]}for r in results ]) response await llm.ainvoke([ SystemMessage(content你是一个信息综合专家负责整合多个智能体的执行结果生成完整、连贯的最终回答。), HumanMessage(contentf请综合以下各智能体的执行结果:\n{results_text}) ]) return response.content asyncdef run(self, query: str) - str: 运行多智能体系统 print(f\n{*60}) print(f 多智能体系统启动) print(f 用户查询: {query}) print(f{*60}) # 1. 任务分解 tasks await self._decompose_task(query) # 2. 并行执行子任务 results await self._execute_parallel_tasks(tasks) # 3. 综合结果 final_answer await self._synthesize_results(results) print(f\n{*60}) print(f✅ 多智能体系统执行完成) print(f{*60}) return final_answer# # 第四部分运行示例# asyncdef main(): 运行多智能体系统示例 master MasterAgent() # 测试查询 query 分析2025年人工智能行业的发展趋势并给出投资建议 result await master.run(query) print(f\n{*60}) print( 最终报告) print(f{*60}) print(result)if __name__ __main__: asyncio.run(main())可靠性和工程挑战在传统软件中一个错误可能会导致功能失效、性能下降或系统宕机而在智能体系统中微小的变化也会引发巨大的行为改变这使得为需要在长时间运行的进程中维护状态的复杂智能体编写代码变得异常困难那我们应该怎么做智能体是有状态的错误会不断累积我们需要做好容错和沙盒环境。智能体可以长时间运行并在多次工具调用中保持状态这意味着我们需要持久地执行代码并在执行过程中处理错误如果没有有效的缓解措施即使是轻微的系统故障也可能对智能体造成灾难性后果当错误发生时我们不能简单地从头开始重启成本高昂因此我们需要构建可以从错误发生时智能体所在位置恢复运行的系统。构建完整的可观测系统如果某个智能体不符合预期应该分析原因。智能体会做出动态决策即使提示信息完全相同每次运行的结果也并不确定这使得调试更加困难智能体使用了错误的搜索查询选择了不合适的数据源还是遇到了工具故障添加完整的生产环境跟踪功能后我们能够诊断智能体故障的原因并系统地修复问题除了标准的可观测性之外我们还监控智能体的决策模式和交互结构这种高层次的可观测性帮助我们诊断根本原因、发现异常行为并修复常见故障。智能体同步执行会造成瓶颈尽可能使用并行处理。主智能体同步执行子智能体等待每组子智能体完成任务后再继续执行下一个这简化了协调但也造成了智能体间信息流的瓶颈例如主智能体无法控制子代智能体子智能体之间也无法协调整个系统可能会因为等待单个子智能体完成搜索而被阻塞异步执行可以实现更高的并行性智能体可以并发工作并在需要时创建新的子智能体当然这种异步性也带来了结果协调、状态一致性和错误在子智能体间传播方面的挑战。智能体的可测试性在线上运行十分重要。传统的软件对一些子功能我们通常会进行单元测试这个功能点同样适用于构建的智能体特别是对于那些希望输入和输出需要保持一致性的智能体系统那该如何实现首先智能体功能测试不应该依赖单个大模型其次将功能测试用例拆分输入和预期输出对于一些强校验的功能智能体调用子智能体和系统API的所有的输出应该保持预期测试执行流程一致才算通过测试用例最后大模型多次对相同的输入不一定获得相同的结果所以测试用例应该是多次运行通过率应该通过次数/执行次数的方式来统计。那么如何系统的去学习大模型LLM作为一名深耕行业的资深大模型算法工程师我经常会收到一些评论和私信我是小白学习大模型该从哪里入手呢我自学没有方向怎么办这个地方我不会啊。如果你也有类似的经历一定要继续看下去这些问题啊也不是三言两语啊就能讲明白的。所以我综合了大模型的所有知识点给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢我就曾放空大脑以一个大模型小白的角度去重新解析它采用基础知识和实战项目相结合的教学方式历时3个月终于完成了这样的课程让你真正体会到什么是每一秒都在疯狂输出知识点。由于篇幅有限⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》扫码获取~大模型学习指南路线汇总我们这套大模型资料呢会从基础篇、进阶篇和项目实战篇等三大方面来讲解。①.基础篇基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念用最易懂的方式带你入门大模型。②.进阶篇接下来是进阶篇你将掌握RAG、Agent、Langchain、大模型微调和私有化部署学习如何构建外挂知识库并和自己的企业相结合学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。③.实战篇实战篇会手把手带着大家练习企业级的落地项目已脱敏比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等从而帮助大家更好的应对大模型时代的挑战。④.福利篇最后呢会给大家一个小福利课程视频中的所有素材有搭建AI开发环境资料包还有学习计划表几十上百G素材、电子书和课件等等只要你能想到的素材我这里几乎都有。我已经全部上传到CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我这套大模型系统教程将会是全网最齐全 最易懂的小白专用课

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询