2026/3/29 10:42:09
网站建设
项目流程
网站建设需要多大的服务器,建网站前途,网站运营名词解释,做平面什么网站的素材不侵权文章探讨了大模型训练的两大扩展定律#xff1a;预训练更大和后训练思考更久。尽管过去一年强化学习备受关注#xff0c;但预训练并未消亡#xff0c;反而将在2026年迎来复兴。作者强调#xff0c;评估AI不应仅看推理步骤数量#xff0c;更应关注…文章探讨了大模型训练的两大扩展定律预训练更大和后训练思考更久。尽管过去一年强化学习备受关注但预训练并未消亡反而将在2026年迎来复兴。作者强调评估AI不应仅看推理步骤数量更应关注单次前向传播质量潜在推理能力。预训练仍是进步核心驱动力这将影响数据中心扩建和AI硬件发展方向对投资者和开发者都有重要启示。1、两条 AI 扩展定律我们现在都知道要让 AI 变得更好主要有两种路径“更大”bigger与“思考更久”thinking for longer。但要理解二者我们先需简要地回顾 ChatGPT 类模型的构建原理。“世事变迁愈烈本质却愈恒常。”从外部看AI 行业生机勃勃、喧嚣纷呈技术突破、炒作浪潮、迅猛迭代堪称人类史上最具活力的产业。但事实上当前 AI 模型与近十年前的模型惊人地相似。早年发现的基本原理不仅依然有效更仍是当今进步的支柱。算法层面的实质性改进多年以来几乎停滞不前。因此当前最前沿的模型仍高度趋同决定谁领先的关键变量主要仍是训练数据规模与算力。归根结底一切都取决于算力不仅在于你拥有多少更关键的是你如何高效地使用它。第一条扩展定律预训练“更大”第一条扩展定律围绕模仿学习imitation learning展开向模型喂入海量数据要求其模仿。通过机械式重复模型从中提炼数据底层规律。这是一种归纳式过程当模型反复看到“I”后接“am”下次再遇到“I”就更可能预测出“am”。如何优化这一方法是扩大训练预算具体体现为扩大数据集规模扩大模型参数规模。但这些数据究竟有多大其规模近乎难以想象。Transformer 的训练预算以 FLOPs——浮点运算次数衡量可近似用公式 6 × D × N 计算。6 代表一次前向传播2×FLOPs与一次反向传播4×FLOPs。D 为训练词元token总数N 是模型参数量。对当前主流的 MOE 模型“N”实为“A”即激活参数量暂不深究。如今的前沿预训练预算已达约 10²⁷ FLOPs 即 100 亿亿亿次浮点运算1 octillion FLOPs。依上述公式假设模型参数为 5 万亿实际尚不及最前沿水平则对应训练数据量约为 3.33 × 10¹³ tokens。按平均每词 0.75 词元估算相当于 24 万亿单词的训练数据。而这仅是一次训练运行的规模2025 年已出现多次同级甚至更大规模的训练可见“大数据”之“大”名副其实。过去十年间我们曾笃信只需将此流程“卷”到极致甚至一度认为仅靠扩大模型规模便能抵达通用人工智能AGI。然而当著名的 GPT-4.5 训练失败原计划为 GPT-5后人们猛然醒悟这不仅不是实现 AGI 的充分条件技术实已陷入停滞。随后ChatGPT 之父 Ilya Sutskever 公开宣称我们熟知的扩展定律已死。第二条扩展定律后训练“思考更久”约两年前正值预训练狂热高峰之际包括 IIya 本人在内的 OpenAI 少数研究员提出一问“如果我们给模型时间思考呢”逻辑很简单人类面对复杂任务时并非立即作答而是先在脑内反复推演我们常将问题拆解为更简单的步骤这本质上是向任务投入更多‘思考’。于是他们开始测试此构想。方法极其简单基于一个已完成预训练的 LLM用小型“冷启动”带思维链的数据然后就可以向其提出中等难度问题但不直接提供答案供模仿而是让其通过试错自行推导。这种试错训练法即强化学习RL一项已有三十年历史、如今终被规模化应用的技术—效果惊人由此诞生了第二条扩展定律当模型被赋予思考时间其表现将大幅提升。“推理模型”reasoning models应运而生以 OpenAI 的 o1 为先驱。这种额外训练阶段称为“后训练”post-training因发生在预训练之后。它使 GPT-4o 蜕变为 o1在所有“思考时间越长表现越好”的基准测试中全面跃升。如今我们还有“中期训练”mid-training即预训练与后训练间的补充训练。虽概念略显拗口却支持灵活操作如 DeepSeek v3.2 在不重训的前提下改良注意力机制。更关键在于此扩展定律不仅能提升“聪明模型”的智商还可让小模型凭借 inference-time compute 媲美大模型。过去一年间扩大后训练算力成了各家 AI 实验室的执念。2、潜在推理Latent Reasoning的重要性评判智能无论对象是模型还是人类我们既可以看结果“观其行”也可以看过程“察其思”。多数人倾向前者但我坚信后者更优。原因如下前者可概括为著名“鸭子测试”duck test“若其行如鸭、鸣如鸭则必为鸭。”我反对的是聪明结果等于智能本身我们应关注过程。评估智能主要是看如何抵达结论无论结论是否正确。因为模型看似智能实则多为复述记忆数据。你能死记硬背一道极难的物理学博士考题答案但这绝不意味着你具备博士级物理智慧。更何况有大量证据表明记忆仍在模型能力中扮演重要角色。评估 AI 能解决的最复杂问题时我们常将算力调至极限观察其能力边界。赋予模型充裕推理算力测试其上限。METR 基准即典型衡量 AI 在 80% 情况下能完成的最长软件工程任务。但此类基准设计允许模型自由生成 token意味着结果未必具商业可行性。这里我们实质在问“如果忽略成本模型能力极限何在”因为单次任务可能涉及数十万乃至数百万次 token 消耗。这确实是衡量推理算力进步的绝佳方式。但过度聚焦于此会使人忽视基座模型本身也需要提升。我们应观察单次预测质量的净提升。因这点差异可能导致一模型需比另一模型多耗 100 倍算力生成更多词元仅因其单次预测质量更低被迫靠堆砌推理步数抵达答案。3、单次前向传播Single Forward Pass我们真正想评估的是单次前向传播forward pass的质量即模型仅凭当前输入预测下一个 token 的能力。这样我们就能回答LLM 凭借单次预测在无“外显推理”时能力边界何在这里的思考是这样的人类被要求即兴作答时成败取决于是否“知道答案”。而对AI而言“外显推理”本就是记忆序列的一部分强制其跳过外显推理便切断其连接问题与答案的关键环节记忆在此失效。如果模型在无推理轨迹时仍能解决需推理的问题这便是评估其潜在推理能力latent reasoning即内在、非外显的推理智能的绝佳指标。那么模型在此项测试中表现如何好消息是预训练层面仍有进展。通俗地说模型的“单次预测智能”正在提升即每预测一次就更聪明一分。其中尤以 Gemini 与 Claude 为甚如下图线性/对数尺度所示其代际间呈现清晰净提升。反观 OpenAI则已完全将进步押注于推理算力。其 GPT-4 到 GPT-5 代际间仅现中等性能提升进步主要源于第二条扩展定律单任务投入更多算力。这也解释了我个人体验ChatGPT 在非推理任务上表现极度糟糕其非推理版 GPT-5.2 Instant 堪称对技术进步的侮辱迫使我永远开启‘Thinking’开关确保所有答复均经推理生成。OpenAI 首席研究官 Mark Chen 已公开承认过去一年其后训练投入“过头”现已转回重拾“预训练”。DeepMind 高管 Oriol Vinyals 更直言预训练是 Gemini 3 Pro 惊艳表现的关键。可见预训练不仅尚在并且正深刻影响普通用户的体验。2026 年其研究关注度必将远超 2025 年“已死”论调。4、而这对你我意味着什么推理决定服务器规模训练决定数据中心规模。如果预训练仍是进步核心驱动力则数据中心扩建压力必将重燃且证据确凿。原因在于预训练数据规模如前所述其体量已极庞大且只会更大。这意味着训练需集成更多加速器如 GPU。同时随着训练预算增长我们也将更倾向采用“专家稀疏化”expert sparsity。此技术由 DeepSeek 推广当前前沿模型已普遍采用细粒度专家混合MoE将模型“分割”为更小子模型以降低单次预测运算量。MoE 并非真将模型物理切分而是划分 MLP 层其占 FLOPs 大头从而按激活专家数均摊算力需求。鉴于 GPU 集群扩展难度极高算法优化将成为容纳更大训练的必要手段。模型将依第一条扩展定律继续增大但内部结构将趋向“精瘦”。关键的问题来了英伟达等硬件厂商是否过度押注“推理”训练算力占比是否真会被推理完全吞噬它们已宣布下一代 GPU 平台 Rubin 将首推纯推理 GPURubin CPX。如果这种趋势叠加“推理向边缘设备迁移”的压力AI 硬件路线图恐怕会过度倾向于推理。当前“纵向扩展”scaling-up即单服务器内增配加速器因其提升推理性能的主因是当前的主流在重推理的RL训练中试错需反复运行推理直至成功所以同样关键。但随着大规模非 RL 训练重获重视“横向扩展”scaling-out增服务器数与“跨域扩展”scaling-across数据中心互联将再度成为进步关键而纵向扩展重要性显著下降这显然与硬件演进方向相悖。微妙差异对投资者意味深长。小白/程序员如何系统学习大模型LLM作为在一线互联网企业深耕十余年的技术老兵我经常收到小白和程序员朋友的提问“零基础怎么入门大模型”“自学没有方向怎么办”“实战项目怎么找”等问题。难以高效入门。这里为了帮助大家少走弯路我整理了一套全网最全最细的大模型零基础教程。涵盖入门思维导图、经典书籍手册、实战视频教程、项目源码等核心内容。免费分享给需要的朋友扫码免费领取全部内容1、我们为什么要学大模型很多开发者会问大模型值得花时间学吗答案是肯定的——学大模型不是跟风追热点而是抓住数字经济时代的核心机遇其背后是明确的行业需求和实打实的个人优势第一行业刚需驱动并非突发热潮。大模型是AI规模化落地的核心引擎互联网产品迭代、传统行业转型、新兴领域创新均离不开它掌握大模型就是拿到高需求赛道入场券。第二人才缺口巨大职业机会稀缺。2023年我国大模型人才缺口超百万2025年预计达400万具备相关能力的开发者岗位多、薪资高是职场核心竞争力。第三技术赋能增效提升个人价值。大模型可大幅提升开发效率还能拓展职业边界让开发者从“写代码”升级为“AI解决方案设计者”对接更高价值业务。对于开发者而言现在入门大模型不仅能搭上行业发展的快车还能为自己的职业发展增添核心竞争力——无论是互联网大厂的AI相关岗位还是传统行业的AI转型需求都在争抢具备大模型技术能力的人才。人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议2、大模型入门到实战全套学习大礼包分享最后再跟大家说几句只要你是真心想系统学习AI大模型技术这份我耗时许久精心整理的学习资料愿意无偿分享给每一位志同道合的朋友。在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。部分资料展示2.1、 AI大模型学习路线图厘清要学哪些对于刚接触AI大模型的小白来说最头疼的问题莫过于“不知道从哪学起”没有清晰的方向很容易陷入“东学一点、西补一块”的低效困境甚至中途放弃。为了解决这个痛点我把完整的学习路径拆解成了L1到L4四个循序渐进的阶段从最基础的入门认知到核心理论夯实再到实战项目演练最后到进阶优化与落地每一步都明确了学习目标、核心知识点和配套实操任务带你一步步从“零基础”成长为“能落地”的大模型学习者。后续还会陆续拆解每个阶段的具体学习内容大家可以先收藏起来跟着路线逐步推进。L1级别:大模型核心原理与PromptL1阶段将全面介绍大语言模型的基本概念、发展历程、核心原理及行业应用。从A11.0到A12.0的变迁,深入解析大模型与通用人工智能的关系。同时,详解OpenAl模型、国产大模型等,并探讨大模型的未来趋势与挑战。此外,还涵盖Pvthon基础、提示工程等内容。目标与收益:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为AI应用开发打下坚实基础。L2级别RAG应用开发工程L2阶段将深入讲解AI大模型RAG应用开发工程,涵盖Naive RAGPipeline构建、AdvancedRAG前治技术解读、商业化分析与优化方案,以及项目评估与热门项目精讲。通过实战项目提升RAG应用开发能力。目标与收益:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。L3级别Agent应用架构进阶实践L3阶段将 深入探索大模型Agent技术的进阶实践,从Langchain框架的核心组件到Agents的关键技术分析,再到funcation calling与Agent认知框架的深入探讨。同时,通过多个实战项目,如企业知识库、命理Agent机器人、多智能体协同代码生成应用等,以及可视化开发框架与IDE的介绍,全面展示大模型Agent技术的应用与构建。目标与收益:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。L4级别:模型微调与私有化大模型L4级别将聚焦大模型微调技术与私有化部署,涵盖开源模型评估、微调方法、PEFT主流技术、LORA及其扩展、模型量化技术、大模型应用引警以及多模态模型。通过chatGlM与Lama3的实战案例,深化理论与实践结合。目标与收益:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。2.2、 全套AI大模型应用开发视频教程从入门到进阶这里都有跟着老师学习事半功倍。2.3、 大模型学习书籍文档收录《从零做大模型》《动手做AI Agent》等经典著作搭配阿里云、腾讯云官方技术白皮书帮你夯实理论基础。2.4、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。2.5、大模型大厂面试真题整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题涵盖基础理论、技术实操、项目经验等维度每道题都配有详细解析和答题思路帮你针对性提升面试竞争力。【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】2.6、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】