2026/2/22 12:13:56
网站建设
项目流程
一个网站专门做摩托车,无货源跨境电商怎么开店铺,塘下网站建设公司,seo优化关键词稳定在首页#x1f4da;推荐阅读
面试官#xff1a;Transformer如何优化到线性级#xff1f;
面试官#xff1a;模型的量化了解吗#xff1f;解释一下非对称量化与对称量化
面试官#xff1a;模型剪枝了解吗#xff1f;解释一下结构化剪枝与非结构化剪枝
面试官#xff1a;为…推荐阅读面试官Transformer如何优化到线性级面试官模型的量化了解吗解释一下非对称量化与对称量化面试官模型剪枝了解吗解释一下结构化剪枝与非结构化剪枝面试官为什么 Adam 在部分任务上会比 SGD 收敛更快但泛化性更差如何改进面试官BatchNorm、LayerNorm、GroupNorm、InstanceNorm 有什么本质区别面试官深层网络梯度消失的根本原因是什么除了 ResNet还有哪些架构能有效缓解面试官大模型中的幻觉本质原因是什么如何通过训练或推理手段抑制面试官FlashAttention 的实现原理与内存优化方式为什么能做到 O(N²) attention 的显存线性化面试官KV Cache 了解吗推理阶段 KV Cache 的复用原理动态批处理如何提升吞吐面试官Vision-Language 模型中如何实现跨模态特征对齐CLIP 与 BLIP 的主要区别面试官多模态指令微调Instruction Tuning如何统一不同模态的输出空间面试官RLHF 和 DPO 的本质区别是什么为什么现在很多模型都用 DPO 替代 RLHF这道题其实是面试官想看你是否真的理解大模型安全对齐Alignment背后的优化逻辑。我们都知道这两个词看起来都跟“让模型更听话”有关但它们在原理、流程和优化目标上差别非常关键。今天我们来把这件事讲清楚。所有相关源码示例、流程图、面试八股、模型配置与知识库构建技巧我也将持续更新在GithubAIHub欢迎关注收藏一、背景大语言模型LLM预训练后本质上只是一个“下一个词预测机”。它虽然学到了知识但没有价值观——你问什么它都可能“合理续写”包括错误、偏见或有害内容。于是研究者提出了“对齐Alignment”这一步让模型的行为更贴近人类期望。这一步就是我们常说的RLHFReinforcement Learning from Human Feedback——从人类反馈中学强化学习让模型输出更“安全、友好、可控”。二、RLHF三阶段的“人类反馈强化学习”RLHF 由三步组成1.SFTSupervised Fine-tuning用高质量指令数据如“问答”“总结”“翻译”微调模型让它学会遵循人类指令。这是“教模型说话”的第一步。Reward Model 训练给同一个问题生成多个回答让人工标注者排序哪个更好。用这些排序训练一个奖励模型 ( R(x, y) )预测回答的“人类偏好分数”。强化学习阶段PPO用奖励模型当“人类代理”指导语言模型生成输出。优化目标是让模型生成的回复能最大化奖励同时约束不要偏离原语言模型通过 KL 散度惩罚。公式上可以表示为这一步的关键是模型通过强化学习在“奖励函数”的指引下逐步调整生成策略。三、RLHF 的“痛点”RLHF 效果强但也很“重”流程复杂要三步训练特别是强化学习PPO部分非常难调不稳定奖励模型噪声会导致训练不收敛成本高每次都要采样、评估、梯度更新计算量巨大不可控性有时候模型会学会“讨好”奖励模型而非真正遵循人类偏好Reward Hacking。这些问题让 RLHF 成为大模型训练中最“烧 GPU”的环节之一。于是研究者开始思考有没有办法跳过强化学习那一步直接学到相同的偏好四、DPO直接偏好优化2023 年Anthropic 提出了DPODirect Preference Optimization它一出现就成了替代 RLHF 的轻量方案。DPO 不用训练奖励模型也不用强化学习而是直接在原始语言模型上优化人类偏好。它的关键思想是我们其实已经有人工标注的“好回答”和“坏回答”对既然知道哪一个更好为什么还要额外学一个奖励模型再强化学习直接优化概率分布让模型对“好回答”的概率更高对“坏回答”的概率更低不就行了吗于是 DPO 提出了一个简洁的目标函数简单理解就是让模型在参考模型基础上倾向生成被人类偏好的回答 ( y^ )同时降低生成不被偏好的回答 ( y^- ) 的概率。DPO 的神奇之处在于——它等价于一个简化版的 RLHF不显式训练奖励模型不需要采样环境直接用对比损失优化语言模型。五、为什么 DPO 能替代 RLHFDPO 的核心优势有三点端到端可训练不需要单独的奖励模型也不需要强化学习框架直接基于语言建模损失优化即可。稳定高效不存在 PPO 的梯度不稳定问题训练速度更快显存占用更低。实证表现好多篇论文和开源模型如 Zephyr、Yi、Mistral-Instruct已经证明DPO 在人类偏好评测上几乎可以媲美 RLHF。正因如此现在大多数开源模型都采用SFT DPO流程既能获得接近 RLHF 的效果又节省了大部分训练成本。面试官问这个问题时你可以这样结构化回答RLHF 是通过“奖励模型 强化学习”间接优化人类偏好而 DPO 则直接用人工偏好数据优化语言模型概率分布跳过了强化学习。二者的本质区别在于RLHF 依赖显式奖励建模DPO 通过对比损失实现隐式偏好优化。DPO 不仅更简单、稳定、低成本还能在大多数任务上取得与 RLHF 相当的效果因此逐渐成为主流替代方案。关于深度学习和大模型相关的知识和前沿技术更新请关注公众号aicoting