2026/4/15 23:31:12
网站建设
项目流程
南宁上林网站建设,设计软件网站制作网站建设,麒麟seo软件,小网站设计scaling law 开始停滞不前#xff0c;大家逐渐意识到真正重要的是强化学习。过去一年中#xff0c;绝大多数进展正是由这一方法推动的。
然而事实证明#xff0c;这种判断是错的。就连 OpenAI 这样的顶尖实验室也被打了个措手不及#xff0c;并为此付出了代价。
下面我将解…scaling law 开始停滞不前大家逐渐意识到真正重要的是强化学习。过去一年中绝大多数进展正是由这一方法推动的。然而事实证明这种判断是错的。就连 OpenAI 这样的顶尖实验室也被打了个措手不及并为此付出了代价。下面我将解释为何预训练pre-training即通过模仿学习这种经典 AI 训练的方法不仅远未消亡反而正蓄势待发将在 2026 年迎来一场“复兴”。耐心看完下面的内容无论是做 AI 产品还是投资相关标的都会有帮助。01两条 AI 扩展定律我们现在都知道要让 AI 变得更好主要有两种路径“更大”bigger与“思考更久”thinking for longer。但要理解二者我们先需简要地回顾 ChatGPT 类模型的构建原理。“世事变迁愈烈本质却愈恒常。”从外部看AI 行业生机勃勃、喧嚣纷呈技术突破、炒作浪潮、迅猛迭代堪称人类史上最具活力的产业。但事实上当前 AI 模型与近十年前的模型惊人地相似。早年发现的基本原理不仅依然有效更仍是当今进步的支柱。算法层面的实质性改进多年以来几乎停滞不前。因此当前最前沿的模型仍高度趋同决定谁领先的关键变量主要仍是训练数据规模与算力。归根结底一切都取决于算力不仅在于你拥有多少更关键的是你如何高效地使用它。第一条扩展定律预训练“更大”第一条扩展定律围绕模仿学习imitation learning展开向模型喂入海量数据要求其模仿。通过机械式重复模型从中提炼数据底层规律。这是一种归纳式过程当模型反复看到“I”后接“am”下次再遇到“I”就更可能预测出“am”。如何优化这一方法是扩大训练预算具体体现为扩大数据集规模扩大模型参数规模。但这些数据究竟有多大其规模近乎难以想象。Transformer 的训练预算以 FLOPs——浮点运算次数衡量可近似用公式 6 × D × N 计算。6 代表一次前向传播2×FLOPs与一次反向传播4×FLOPs。D 为训练词元token总数N 是模型参数量。对当前主流的 MOE 模型“N”实为“A”即激活参数量暂不深究。如今的前沿预训练预算已达约 10²⁷ FLOPs 即 100 亿亿亿次浮点运算1 octillion FLOPs。依上述公式假设模型参数为 5 万亿实际尚不及最前沿水平则对应训练数据量约为 3.33 × 10¹³ tokens。按平均每词 0.75 词元估算相当于 24 万亿单词的训练数据。而这仅是一次训练运行的规模2025 年已出现多次同级甚至更大规模的训练可见“大数据”之“大”名副其实。过去十年间我们曾笃信只需将此流程“卷”到极致甚至一度认为仅靠扩大模型规模便能抵达通用人工智能AGI。然而当著名的 GPT-4.5 训练失败原计划为 GPT-5后人们猛然醒悟这不仅不是实现 AGI 的充分条件技术实已陷入停滞。随后ChatGPT 之父 Ilya Sutskever 公开宣称我们熟知的扩展定律已死。第二条扩展定律后训练“思考更久”约两年前正值预训练狂热高峰之际包括 IIya 本人在内的 OpenAI 少数研究员提出一问“如果我们给模型时间思考呢”逻辑很简单人类面对复杂任务时并非立即作答而是先在脑内反复推演我们常将问题拆解为更简单的步骤这本质上是向任务投入更多‘思考’。于是他们开始测试此构想。方法极其简单基于一个已完成预训练的 LLM用小型“冷启动”带思维链的数据然后就可以向其提出中等难度问题但不直接提供答案供模仿而是让其通过试错自行推导。这种试错训练法即强化学习RL一项已有三十年历史、如今终被规模化应用的技术—效果惊人由此诞生了第二条扩展定律当模型被赋予思考时间其表现将大幅提升。“推理模型”reasoning models应运而生以 OpenAI 的 o1 为先驱。这种额外训练阶段称为“后训练”post-training因发生在预训练之后。它使 GPT-4o 蜕变为 o1在所有“思考时间越长表现越好”的基准测试中全面跃升。如今我们还有“中期训练”mid-training即预训练与后训练间的补充训练。虽概念略显拗口却支持灵活操作如 DeepSeek v3.2 在不重训的前提下改良注意力机制。更关键在于此扩展定律不仅能提升“聪明模型”的智商还可让小模型凭借 inference-time compute 媲美大模型。过去一年间扩大后训练算力成了各家 AI 实验室的执念。02潜在推理Latent Reasoning的重要性评判智能无论对象是模型还是人类我们既可以看结果“观其行”也可以看过程“察其思”。多数人倾向前者但我坚信后者更优。原因如下前者可概括为著名“鸭子测试”duck test“若其行如鸭、鸣如鸭则必为鸭。”我反对的是聪明结果等于智能本身我们应关注过程。评估智能主要是看如何抵达结论无论结论是否正确。因为模型看似智能实则多为复述记忆数据。你能死记硬背一道极难的物理学博士考题答案但这绝不意味着你具备博士级物理智慧。更何况有大量证据表明记忆仍在模型能力中扮演重要角色。评估 AI 能解决的最复杂问题时我们常将算力调至极限观察其能力边界。赋予模型充裕推理算力测试其上限。METR 基准即典型衡量 AI 在 80% 情况下能完成的最长软件工程任务。但此类基准设计允许模型自由生成 token意味着结果未必具商业可行性。这里我们实质在问“如果忽略成本模型能力极限何在”因为单次任务可能涉及数十万乃至数百万次 token 消耗。这确实是衡量推理算力进步的绝佳方式。但过度聚焦于此会使人忽视基座模型本身也需要提升。我们应观察单次预测质量的净提升。因这点差异可能导致一模型需比另一模型多耗 100 倍算力生成更多词元仅因其单次预测质量更低被迫靠堆砌推理步数抵达答案。03单次前向传播Single Forward Pass我们真正想评估的是单次前向传播forward pass的质量即模型仅凭当前输入预测下一个 token 的能力。这样我们就能回答LLM 凭借单次预测在无“外显推理”时能力边界何在这里的思考是这样的人类被要求即兴作答时成败取决于是否“知道答案”。而对AI而言“外显推理”本就是记忆序列的一部分强制其跳过外显推理便切断其连接问题与答案的关键环节记忆在此失效。如果模型在无推理轨迹时仍能解决需推理的问题这便是评估其潜在推理能力latent reasoning即内在、非外显的推理智能的绝佳指标。那么模型在此项测试中表现如何好消息是预训练层面仍有进展。通俗地说模型的“单次预测智能”正在提升即每预测一次就更聪明一分。其中尤以 Gemini 与 Claude 为甚如下图线性/对数尺度所示其代际间呈现清晰净提升。反观 OpenAI则已完全将进步押注于推理算力。其 GPT-4 到 GPT-5 代际间仅现中等性能提升进步主要源于第二条扩展定律单任务投入更多算力。这也解释了我个人体验ChatGPT 在非推理任务上表现极度糟糕其非推理版 GPT-5.2 Instant 堪称对技术进步的侮辱迫使我永远开启‘Thinking’开关确保所有答复均经推理生成。OpenAI 首席研究官 Mark Chen 已公开承认过去一年其后训练投入“过头”现已转回重拾“预训练”。DeepMind 高管 Oriol Vinyals 更直言预训练是 Gemini 3 Pro 惊艳表现的关键。可见预训练不仅尚在并且正深刻影响普通用户的体验。2026 年其研究关注度必将远超 2025 年“已死”论调。04而这对你我意味着什么推理决定服务器规模训练决定数据中心规模。如果预训练仍是进步核心驱动力则数据中心扩建压力必将重燃且证据确凿。原因在于预训练数据规模如前所述其体量已极庞大且只会更大。这意味着训练需集成更多加速器如 GPU。同时随着训练预算增长我们也将更倾向采用“专家稀疏化”expert sparsity。此技术由 DeepSeek 推广当前前沿模型已普遍采用细粒度专家混合MoE将模型“分割”为更小子模型以降低单次预测运算量。MoE 并非真将模型物理切分而是划分 MLP 层其占 FLOPs 大头从而按激活专家数均摊算力需求。鉴于 GPU 集群扩展难度极高算法优化将成为容纳更大训练的必要手段。模型将依第一条扩展定律继续增大但内部结构将趋向“精瘦”。关键的问题来了英伟达等硬件厂商是否过度押注“推理”训练算力占比是否真会被推理完全吞噬它们已宣布下一代 GPU 平台 Rubin 将首推纯推理 GPURubin CPX。如果这种趋势叠加“推理向边缘设备迁移”的压力AI 硬件路线图恐怕会过度倾向于推理。当前“纵向扩展”scaling-up即单服务器内增配加速器因其提升推理性能的主因是当前的主流在重推理的RL训练中试错需反复运行推理直至成功所以同样关键。但随着大规模非 RL 训练重获重视“横向扩展”scaling-out增服务器数与“跨域扩展”scaling-across数据中心互联将再度成为进步关键而纵向扩展重要性显著下降这显然与硬件演进方向相悖。微妙差异对投资者意味深长。如何学习AI大模型我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。1.AI大模型学习路线图2.100套AI大模型商业化落地方案3.100集大模型视频教程4.200本大模型PDF书籍5.LLM面试题合集6.AI产品经理资源合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】