2026/4/16 22:13:29
网站建设
项目流程
成品图片的网站在哪里找,济南seo外包服务,wordpress安装没反应,石家庄限号通用类人智能始终是人工智能领域的终极追求之一#xff0c;智能体#xff08;Agent#xff09;概念的诞生与演进#xff0c;正是朝着这一目标迈进的关键探索。早期智能体多基于强化学习构建#xff0c;不仅面临高昂的计算成本与海量数据依赖的困境#xff0c;还存在知识迁…通用类人智能始终是人工智能领域的终极追求之一智能体Agent概念的诞生与演进正是朝着这一目标迈进的关键探索。早期智能体多基于强化学习构建不仅面临高昂的计算成本与海量数据依赖的困境还存在知识迁移困难的核心痛点难以大规模落地应用。而大模型的爆发式发展彻底打破了这一僵局——其在语义理解、文本生成、复杂知识推理等领域展现出的卓越能力让研究人员看到了新的突破方向将大模型与智能体深度融合既解决大模型无法感知外部环境、无法调用外部工具的固有缺陷又借助大模型的多模态优势赋予智能体高效的信息处理与行动规划能力。从2023年的“百模大战”奠定技术基础到2024年“算力网元年”提供算力支撑再到2025年各类智能体应用密集涌现行业普遍将2025年视为“智能体元年”。如今AI Agent智能代理已成为大模型落地应用的核心载体它不再局限于语言交互更能实现自主规划任务、调用外部工具、执行复杂流程真正推动大模型从“文本生成工具”升级为“全流程行动助手”成为程序员与AI学习者必须掌握的核心技术方向。OpenAI应用研究主管莉莲·翁Lilian Weng在其经典博客中曾断言AI智能体将开启人工智能的全新时代并提出了影响深远的智能体基础架构公式智能体大语言模型LLM规划能力记忆工具使用。在这一架构中LLM扮演着“大脑”的核心角色为整个系统提供推理、决策与规划的底层支撑。目前学术界与工业界对智能体的定义虽存在细节差异但核心共识高度统一——均围绕“模拟人类自主行动与决策能力”展开。其中OpenAI提出的架构定义被广泛采纳进一步拆解可明确为Agent 大模型LLM 规划Planning 记忆Memory 工具使用Tool Use这四大核心模块的具体作用的如下1LLM大模型作为智能体的“核心大脑”负责精准理解用户需求、拆解任务目标、生成推理逻辑与行动指令是整个系统的决策中枢2规划Planning核心是“化繁为简”与“迭代优化”。一方面智能体通过任务分解将复杂目标拆解为若干个小而可控的子任务降低执行难度另一方面通过自我反思机制对过往行动中的错误进行复盘修正持续优化后续执行步骤提升任务完成质量3记忆Memory分为短期记忆与长时记忆。短期记忆对应模型的上下文窗口用于存储当前任务的即时信息支撑实时推理长时记忆则通过外部向量数据库实现可海量存储历史信息并支持快速检索突破模型自身记忆容量限制4工具使用Tool Use让智能体突破自身能力边界的关键。通过调用外部API、代码执行环境、实时数据库等工具获取模型预训练数据之外的信息如实时天气、专有数据或完成模型无法直接实现的操作如数据计算、文件处理。这四大模块协同配合构建出以LLM为核心控制器的智能体系统。值得注意的是大模型的价值远不止于生成文本、论文或代码更在于通过与规划、记忆、工具的结合成为具备通用问题解决能力的核心引擎——这也是为什么智能体成为当前大模型学习的核心重点。一、核心区别智能体 vs 传统工作流要真正理解智能体的价值首先需要明确其与传统工作流Workflow的本质差异这也是小白入门的关键认知点1. 工作流(Workflow)模式静态的“预设脚本”工作流是传统自动化的核心范式本质是一套预先定义好的结构化流程。它就像一张固定的流程图明确规定了每个步骤的执行顺序、触发条件与操作内容全程遵循“预设规则”运行不具备自主决策能力。例如传统办公系统中的“报销审批流程”从提交申请到部门审核、财务复核每个环节的触发条件与处理逻辑都是固定的无法根据实际情况灵活调整。2. 智能体(Agent)模式动态的“自主决策者”基于大模型的智能体是一套以目标为导向的自主系统。它无需预设固定流程而是能够根据用户目标、实时环境信息自主进行推理、规划行动步骤并动态调整执行策略。LLM作为“大脑”赋予其理解环境、分析问题、优化方案的能力——这种“基于实时信息的动态决策能力”正是智能体与传统工作流的核心区别也是其能够处理复杂、多变任务的关键。二、智能体核心组件深度拆解小白可直接套用学习框架AI的发展历程本质是逐步提升任务参与度的过程从只能进行简单对话的Chatbot到辅助人类决策的Copilot再到能够自主感知、规划、行动的AgentAI正在从“辅助工具”向“自主助手”进化。而支撑这一进化的核心就是三大核心组件规划、记忆、工具使用。组件一规划——智能体的“任务拆解与优化能力”规划能力是智能体处理复杂任务的基础核心包含“任务分解”与“自我反思”两大核心能力对应的主流技术框架如下1. 任务分解从“线性思考”到“树形探索”复杂任务的核心难点在于“无从下手”而任务分解就是将大目标拆分为小步骤的过程主流方法有两种1思维链Chain of ThoughtCoTWei等人2022这是提升模型复杂任务处理能力的基础提示技术核心是让模型“逐步思考”。通过引导模型将复杂任务拆解为连续的小步骤每一步基于上一步的结果推进既降低了推理难度也让模型的思考过程更易理解。例如解决“制定一份大模型学习计划”的任务时思维链会引导模型先拆解为“基础理论学习→工具实操→项目实战→进阶优化”等子步骤再逐步细化每个步骤的具体内容。2思维树Tree of ThoughtsYao等人2023在思维链的基础上进一步升级核心是“多路径探索”。它将任务分解为多个思考步骤每个步骤都生成多种可能的思路形成树状结构再通过广度优先搜索BFS或深度优先搜索DFS遍历这些思路结合分类器或多数投票筛选出最优路径。这种方式适用于更复杂的开放性任务例如“撰写一篇高质量的大模型技术博客”可同时探索“技术原理导向”“实操案例导向”“问题解决导向”等多种写作思路再选择最优方案。对于小白来说任务分解可通过三种简单方式实现① 直接提示LLM如“列出完成大模型部署的步骤1.”② 使用任务特定指令如“撰写一份大模型微调的任务大纲”③ 人工输入核心步骤让LLM补充细节。2. 自我反思智能体的“迭代优化能力”自我反思是智能体区别于传统自动化工具的关键特性让智能体能够从错误中学习持续优化性能。在需要反复尝试的任务如代码编写、复杂问题求解中这一能力尤为重要主流框架有1ReActYao等人2023核心是“推理与行动结合”。它将智能体的动作空间分为两部分任务特定的离散动作如调用搜索工具、执行代码和语言空间生成推理轨迹。通过让模型在行动前明确推理逻辑行动后根据结果反思调整实现“思考-行动-反思”的闭环。例如在解决数学应用题时ReAct会让模型先推理“需要先找到哪些条件”再调用计算器工具计算最后根据计算结果反思“是否符合题意是否需要重新计算”。2ReflexionShinn Labash2023为智能体配备动态记忆与自我反思能力的强化学习框架。它采用二元奖励机制正确/错误沿用ReAct的动作空间在每次动作执行后通过启发式函数评估结果结合自我反思判断是否需要重置环境重新尝试。例如在代码调试任务中若模型生成的代码运行报错Reflexion会引导模型反思“报错原因是什么”“哪行代码存在问题”“如何修改”并基于反思结果重新生成代码。组件二记忆——智能体的“信息存储与检索系统”记忆是智能体实现连续决策的基础参考人类记忆的分类逻辑智能体的记忆系统可分为三类且能与人类记忆建立清晰的映射关系小白可快速理解1. 人类记忆的分类与智能体映射人类大脑的记忆主要分为感觉记忆、短期记忆、长期记忆三类智能体的记忆系统正是对这一结构的模拟1感觉记忆记忆的初始阶段用于短暂保留原始感官信息视觉、听觉等持续时间仅几秒对应智能体中的“原始输入嵌入表示”——即将文本、图像等原始数据转换为模型可理解的向量形式2短期记忆STM/工作记忆存储当前意识到的信息支撑实时认知任务容量约7个项目Miller1956持续20-30秒对应智能体中的“上下文学习”——受Transformer模型上下文窗口长度限制仅能存储当前任务的即时信息3长期记忆LTM可长期存储信息几天到几十年容量近乎无限分为外显记忆事实、事件和内隐记忆技能、习惯对应智能体中的“外部向量数据库”——通过将信息向量存储到外部数据库实现海量信息的长期保存与快速检索。人类记忆分类示意图2. 智能体长期记忆的实现向量数据库与检索优化对于智能体来说长期记忆的核心价值是突破模型上下文窗口的限制实现海量历史信息的复用。其标准实现方案是将需要长期存储的信息转换为向量嵌入存储到支持“最大内积搜索MIPS”的向量数据库中。为平衡检索速度与精度实际应用中常采用“近似最近邻ANN算法”——以轻微的精度损失换取大幅的检索速度提升满足实时决策需求。对于小白入门来说只需理解“向量数据库是智能体的‘长期记忆仓库’”即可后续可逐步学习Pinecone、Milvus等主流向量数据库的实操使用。组件三工具使用——智能体的“能力扩展接口”工具使用是人类区别于其他物种的关键特征而给大模型配备外部工具正是让智能体突破自身能力边界的核心手段。通过调用工具智能体可获取实时信息、执行复杂计算、操作外部系统实现“模型能力工具能力”的叠加。以下是小白需要掌握的核心框架与实践案例1. 核心框架从“模块化推理”到“工具增强模型”1MRKLKarpas等人2022全称“模块化推理、知识与语言”是一种神经符号架构。核心思路是用通用LLM作为“路由器”将用户查询分配给不同的“专家模块”如数学计算器、天气API、深度学习模型等。例如当用户提问“今天北京的气温是多少换算成华氏度是多少”时MRKL会将“查询北京气温”分配给天气API模块将“摄氏度转华氏度”分配给计算器模块最后由LLM整合结果返回。2TALMParisi等人2022与ToolformerSchick等人2023两者核心思路一致均通过“微调语言模型”让其学会自主调用外部工具API。核心优化方向是“数据集扩展”——通过标注有效的API调用案例让模型学习“何时调用工具”“调用哪个工具”“如何传参”从而提升工具使用的准确性。例如通过微调让模型学会在遇到数学计算问题时自动调用计算器API而非直接生成错误的计算结果。2. 经典实践案例HuggingGPT——ChatGPT驱动的多模型协作框架HuggingGPTShen等人2023是工具使用的经典案例以ChatGPT为“任务规划器”整合HuggingFace平台的各类专家模型实现多模态、多任务的协同处理。其工作流程分为四个核心阶段小白可直接套用理解工具使用的完整逻辑HuggingGPT工作原理示意图1任务规划ChatGPT作为“大脑”将用户复杂请求拆解为多个子任务明确每个任务的类型、ID、依赖关系和参数。例如用户请求“分析这张图片的内容生成一段描述文字并翻译成英文”会被拆解为“图像内容分析”“文本生成”“翻译”三个子任务2模型选择ChatGPT根据子任务类型从HuggingFace的模型列表中选择最合适的专家模型。例如“图像内容分析”选择ViT模型“翻译”选择BERT翻译模型3任务执行专家模型执行对应任务记录执行结果。例如ViT模型输出图像内容标签翻译模型输出英文描述4响应生成ChatGPT整合所有专家模型的执行结果向用户输出统一、流畅的总结性回复。需要注意的是HuggingGPT的落地面临三大挑战效率LLM推理与模型交互耗时、长上下文依赖需传递复杂任务信息、稳定性LLM输出与外部模型服务的可靠性——这些也是当前智能体工具使用领域的核心研究方向。三、智能体核心框架与实操指南小白入门必看了解了智能体的核心组件后掌握主流框架的实现逻辑与实操方法是从“理论学习”到“实践落地”的关键。红杉资本AI峰会中吴恩达教授提出了智能体的四种核心设计模式反思Reflection、工具使用Tool Use、规划Planning、多智能体协作Multiagent Collaboration并强调这四种模式是提升AI能力的关键方向。以下将重点拆解两个最适合小白入门的经典框架ReAct与Reflexion结合实操逻辑与代码思路帮助快速上手。1. ReAct框架最易上手的“思考-行动”闭环ReAct是“Reasoning and Acting”的缩写核心是让智能体在“思考-行动-观察”的循环中完成任务是当前应用最广泛的智能体架构之一。其逻辑简单清晰非常适合小白入门。1核心运行循环四步实现自主决策ReAct的运行流程是一个持续的闭环核心要素包括Thought思考、Action行动、Observation观察、Final Answer最终答案具体步骤如下① 用户提交任务如“写一个贪吃蛇游戏”② Thought思考智能体先分析任务明确下一步行动方向如“需要先创建HTML文件搭建游戏基础结构”③ Action行动根据思考结果调用对应的工具如“调用文件写入工具创建index.html文件”④ Observation观察获取工具执行结果如“HTML文件创建成功内容已写入”⑤ 循环根据观察结果继续思考下一步行动如“接下来需要创建CSS文件设置样式”重复Thought→Action→Observation流程⑥ Final Answer最终答案当任务完成如所有游戏文件创建完毕输出最终结果流程结束。2实现核心系统提示词的“引导魔法”很多小白会疑惑“为什么大模型会按照‘思考-行动’的顺序执行而不是直接输出结果”核心奥秘不在于模型本身而在于“系统提示词System Prompt”——通过精心设计的提示词引导模型遵循ReAct的流程输出。一个标准的ReAct系统提示词需包含5部分小白可直接套用修改① 职责描述明确模型需通过“思考-行动-观察”循环完成任务要求使用指定标签Thought/Action/Observation/Final Answer② 示例演示提供完整的ReAct流程案例如用户提问→模型思考→调用工具→观察结果→最终答案帮助模型理解规范③ 可用工具列表明确列出可调用的工具及功能如“write_to_file写入文件内容参数为文件名和内容”④ 注意事项如“工具调用失败时需重新思考”“无需调用工具时直接输出Final Answer”⑤ 环境信息告知模型当前运行环境如操作系统、目录结构方便工具调用如文件写入路径。3实操演示用ReAct实现“贪吃蛇游戏开发”以DeepSeek模型为例结合ReAct系统提示词实现“开发贪吃蛇游戏”的任务流程① 提交任务将系统提示词“写一个贪吃蛇游戏”的用户需求提交给DeepSeek② 模型思考Thought输出“需要先创建index.html文件定义游戏画布、引入必要的JS和CSS”③ 调用工具Action输出“write_to_file(filename‘index.html’, content‘…’)”④ 观察结果ObservationAgent工具组件执行写入操作返回“index.html创建成功”⑤ 循环执行模型继续思考“下一步创建CSS文件设置样式”调用write_to_file工具写入style.css观察结果后再创建script.js编写游戏逻辑⑥ 输出最终答案所有文件创建完成后模型输出“贪吃蛇游戏开发完成包含HTML结构、CSS样式、JS逻辑三个文件可直接运行”流程结束。4核心代码思路小白可直接参考的Run函数ReAct Agent的核心代码是一个Run函数负责驱动整个循环流程小白可基于此思路编写简单版本defrun_agent(user_task,system_prompt):# 初始化消息列表系统提示词用户任务messages[{role:system,content:system_prompt},{role:user,content:user_task}]whileTrue:# 调用大模型获取响应responsellm_client.chat.completions.create(modeldeepseek-chat,messagesmessages)res_contentresponse.choices[0].message.content# 提取思考内容并打印thoughtextract_thought(res_content)# 自定义函数提取Thought标签内容print(fThought:{thought})# 检查是否包含最终答案ifFinal Answerinres_content:final_answerextract_final_answer(res_content)print(fFinal Answer:{final_answer})returnfinal_answer# 提取工具调用信息并执行actionextract_action(res_content)# 自定义函数提取Action标签内容tool_nameaction[tool]tool_paramsaction[params]# 执行工具并获取结果tool_resultexecute_tool(tool_name,tool_params)# 自定义函数执行对应工具print(fObservation:{tool_result})# 将工具结果加入消息列表进入下一轮循环messages.append({role:assistant,content:res_content})messages.append({role:system,content:fObservation:{tool_result}})2. Reflexion框架带“自我反思”的迭代优化能力Reflexion是在ReAct基础上的升级核心新增了“自我反思”模块让智能体能够复盘过往错误、优化后续行动适用于需要反复迭代的任务如代码调试、复杂问题求解。1核心逻辑动态记忆反思循环Reflexion的核心创新是构建了“短期环境记忆”与“长期反思记忆”的双记忆系统① 短期环境记忆存储当前任务的执行状态、工具反馈等即时信息② 长期反思记忆存储过往任务的反思结果如“之前调用计算器时参数错误导致结果偏差”用于指导后续任务的执行。其运行流程在ReAct基础上新增了“反思步骤”Thought→Action→Observation→Reflection→循环。例如在代码调试任务中若工具执行结果为“代码报错索引越界”反思步骤会输出“报错原因是循环变量超出列表长度需修改循环条件”并将这一反思结果存入长期记忆避免后续重复犯错。2关键特性语言反馈替代参数调优与传统强化学习通过调整模型参数优化性能不同Reflexion采用“语言反馈”进行优化——通过让模型生成反思文本作为上下文信息输入下一轮决策无需修改模型权重。这种方式更灵活且无需大量标注数据非常适合小白实践。四、进阶必备模型上下文协议MCP——智能体工具调用的标准化方案当你掌握了基础框架的实操后会遇到一个核心问题不同工具、不同Agent平台的接口不统一导致开发耦合度高、工具复用性差。而Anthropic推出的Model Context ProtocolMCP正是为解决这一问题而生的标准化框架——让智能体能够安全、高效地对接各类外部工具与数据源是进阶学习的关键知识点。1. 为什么需要MCP传统工具调用的三大痛点在MCP出现之前智能体的工具调用主要依赖Function Call函数调用但存在三大核心痛点① 开发耦合度高工具开发者需深入了解Agent的内部实现在Agent层编写适配代码开发与调试难度大② 工具复用性差不同Agent平台的工具接口、参数格式不统一即使是同一工具也需重新适配不同平台无法跨语言、跨平台复用③ 生态碎片化不同厂商的插件如OpenAI插件、Claude插件协议不兼容工具生态难以协同发展。MCP的核心价值的就是通过标准化协议将工具集成的复杂性下沉到Client客户端和Server服务端层让Agent开发者无需关注工具的具体实现只需按标准对接即可。2. 什么是MCP核心角色与核心功能MCPModel Context Protocol是Anthropic在2024年11月提出的开源标准与框架旨在标准化AI应用与外部系统的交互方式。简单来说MCP让智能体能够“标准化地获取外部上下文信息、调用外部工具”核心由三大角色组成协同完成工具调用流程1HostAI应用本体即承载AI核心逻辑的应用程序如Cursor、Claude Desktop、Dify或你自己开发的Agent应用核心功能包括提供用户交互界面、维护对话历史、调用LLM、集成MCP Client、转发工具调用请求。2ClientMCP ClientHost内置运行时位于Host内部负责实现MCP协议、管理与MCP Server的连接如本地进程通信、远程HTTP连接是Host与Server之间的“桥梁”。3ServerMCP Server工具实现方定义并实现具体的工具功能核心功能包括注册工具如web_search、get_current_time、返回工具元数据名称、描述、参数、执行工具调用并返回结果。外部工具通常已实现Server可直接对接内部工具需自行开发Server。3. MCP核心工作流程小白可直接理解的步骤MCP的使用流程标准化程度高小白可按以下步骤理解① 配置Server信息用户在AI应用Host中配置MCP Server的连接方式本地进程/远程URL② 建立连接并获取工具列表Host通过MCP Client连接Server发送tools/list请求获取Server注册的所有工具元数据③ 工具映射Host将获取的工具元数据转换为LLM可理解的Function Call格式如OpenAI的tools参数④ 模型决策用户提交任务Host将任务与工具列表一同发送给LLMLLM判断是否需要调用工具若需要则返回tool_calls请求⑤ 执行工具Host通过MCP Client将tool_calls转发给ServerServer执行工具并返回结果⑥ 生成最终答案Host将工具执行结果作为上下文再次发送给LLMLLM结合历史信息生成最终回答。举例用户在CursorHost中配置了一个“网页搜索”MCP ServerCursor通过Client获取该工具后将其转换为OpenAI的Function Call格式。当用户提问“2025年大模型最新进展”时LLM决定调用“网页搜索”工具Host通过MCP Client转发请求Server执行搜索并返回结果最后LLM结合搜索结果生成最终回答。4. MCP与Function Call、传统插件的核心区别很多小白会混淆MCP与Function Call、传统插件这里用通俗的语言总结核心区别① MCP vs Function CallFunction Call是LLM的“调用函数能力”API级别解决“模型如何请求调用函数”MCP是“工具集成的标准化协议”生态级别解决“如何统一管理、发现、调用各类工具”。MCP将Function Call的“工具管理、连接、适配”等繁琐工作标准化、外包给Client和Server简化Host开发② MCP vs 传统插件传统插件与厂商强绑定如OpenAI插件、Claude插件协议格式不统一对接复杂MCP是开源标准不依赖特定厂商任何工具只要实现MCP Server即可被所有支持MCP的AI应用对接复用性极强。简单来说Function Call让模型“能调用工具”MCP让模型“能标准化地调用所有工具”——这也是MCP成为智能体生态核心基础设施的原因。五、学习总结与资源推荐小白进阶路径智能体作为大模型落地的核心载体其核心逻辑可总结为“以LLM为大脑通过规划拆解任务、通过记忆存储信息、通过工具扩展能力”。对于小白来说学习路径可分为三步基础认知理解智能体与传统工作流的区别掌握“LLM规划记忆工具”的核心架构组件拆解深入学习规划CoT/ToT、记忆向量数据库、工具使用MRKL/HuggingGPT的核心逻辑实操落地从ReAct框架入手编写简单Agent再逐步学习Reflexion、MCP等进阶内容。智能体是当前大模型领域最具潜力的研究方向之一也是程序员提升核心竞争力的关键技能。希望本文的解析能帮助你快速入门后续可结合实操不断深化理解逐步掌握这一前沿技术。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】