2026/4/16 21:14:10
网站建设
项目流程
官方网站welcome,自学服装设计该怎么入手,虚拟地址注册公司合法吗,网站开发课程论文文章介绍了大模型Prompt工程的方法论#xff0c;指出模型越强提示词越难写的根本原因在于模型不会理解意图只会预测最可能结果。提出五段式Prompt工程模型#xff1a;角色、目标、输入、过程、输出#xff0c;并强调结构化、上下文完整和任务拆分的重要性。同时…文章介绍了大模型Prompt工程的方法论指出模型越强提示词越难写的根本原因在于模型不会理解意图只会预测最可能结果。提出五段式Prompt工程模型角色、目标、输入、过程、输出并强调结构化、上下文完整和任务拆分的重要性。同时介绍了Few-shot、Chain of Thought等高级技法及Sampling参数配置通过构造低不确定性输入空间提升AI输出质量。1、引言为什么你的AI输出总是“差一点”你一定遇到过这样的情况费尽心思写了一个自认为完美的提示词Prompt但AI给出的结果却总是不够精确甚至完全“跑偏”。我们投入了大量时间学习各种提示词技巧比如使用“请充当…”、“请使用XX语气”但效果依然不稳定。为什么会这样因为我们可能陷入了一个误区把AI的协作能力简单地等同于一个孤立的“提示词”。这两年很多人都有一种强烈感受“模型越来越强但 Prompt 却越来越难写。”原因不复杂模型更强 → 生成空间更大 → 更容易“想多了”模型更复杂 → 投机 Prompt 越来越不稳定模型更会联想 → 模糊表达会被自动补全 → 输出更不可控特别是当你让模型执行任务生成代码、文案、结构化内容你会明显看到Prompt 的细节写不对输出就会失控。这篇文章想做的就是把那些“零散的提示技巧”打包成一套工程化、可迁移、可复用的 Prompt 方法论。重点不是写得更华丽而是写得更可控、更稳定。LLM 为什么容易跑偏——从模型机制理解 Prompt 的本质Google 《Prompt Engineering》白皮书2025里说得非常直接LLM 本质上是“基于已生成 token 输入上下文”预测下一个 token。——Prompt Engineering (2025)这句话决定了几件非常重要的事实事实 1模型不会“理解你的意图”只会预测“最可能后续”你输入一句模糊问题模型会从训练分布里找“它觉得你想要的东西”而不是你的真实需求。事实 2Prompt 控制输入空间你给的信息越少模型越容易“自由发挥”你提供结构角色、步骤、格式、示例越多模型越容易「按图索骥」。事实 3配置参数和 Prompt 同等重要PDF 中专门用一整章讲解 Sampling 配置Temperature、Top-K、Top-P 如何影响输出。特别值得注意Temperature0 → 更稳定但更呆板Top-P、Top-K 控制“可选词空间” → 不同模型行为差异很大输出 token 不等于“更简洁”会直接截断内容换句话说Prompt 写得再好参数错了也会跑偏。Prompt 工程 Prompt 文本 配置工程。实战框架工程实践里最常用的「五段式 Prompt 工程模型」结合多方面写模型提示词的经验我更推荐一套比 COSTAR 更适合执行任务的结构五段式 Prompt 工程模型Role我要你扮演谁Goal这次任务的最终目标是什么Input我给你的材料是什么Process行动步骤 限制Output我要得到的格式是什么下面逐段解释。1Role给模型一个“稳定人格”例子你是一个资深的数据工程师擅长结构化输出与多步骤推理。模型角色一旦固定它的语言风格与行动逻辑都会稳定很多。白皮书里称之为 System Prompt / Role Prompt是最稳定的工程手段之一。2Goal明确这次任务的“判定标准”不要写帮我总结一下xxx要写目标生成一个结构化总结便于直接导入 Notion。总结需覆盖 - 背景 - 问题 - 核心结论 - 可执行建议3Input告诉模型“你要处理什么内容”模型处理的不是“你想让它做的事情”而是“你给它看的内容”。建议写下面是原始材料 ——— 内容 ———4Process明确步骤让模型“按流程走”这一步非常关键是控制模型最强的纵深武器。例如请按以下步骤执行 1. 阅读输入材料 2. 提取关键词 3. 生成结构化总结 4. 按 Output 模板输出结果白皮书中反复强调“LLM 不擅长一次性解决复杂任务拆步骤效果更稳”。5Output格式永远要单独写示例请严格按照如下 JSON 输出 { background: , problems: [], conclusions: [], recommendations: [] }你会发现 JSON 是最稳定的输出方式白皮书也强调“结构化格式 限制模型自由度 减少跑偏”。PS: JSON 输出是什么意思如何在 Prompt 中使用JSON 是一种结构化数据格式你可以把 JSON 理解成“机器读得懂的人类笔记格式”。但当你要求模型“按 JSON 输出”之后它就会严格遵守格式。它具有以下特点格式固定键值对结构层级清晰能保证字段完整输出容易被其他系统读取如 Notion、数据库、自动化流程让 JSON 输出“更稳定”的 3 个技巧1永远给“结构模板”结构模板必须写清楚如{ title: , points: [] }模型看到这个就会按格式输出。2告诉模型“禁止输出解释”例如不要输出模板之外的任何文字。否则模型有时会加一句“以下是 JSON 输出”。3用“必须 / 严格 / 不可缺失”等强约束语言请严格输出 JSON。 所有字段不可缺失。模型对这种限制词非常敏感会显著提升稳定性。高级 Prompt 技法从 Gemini 3 到 Google 白皮书的关键实践从各种资料中我选出最“实用”、最“工程化”的技术不是最酷的而是最好落地的。1Few-shot比零示例更稳定白皮书说“高质量示例是最有效的 prompt 工程手段之一。”要点示例越相似模型越准确至少 3–5 个例子示例格式必须统一示例能隐形约束模型输出2Chain of ThoughtCoT让模型说出“心路”PDF 举了典型例子数学题零-shot 出错但加 “Let’s think step by step” 后推理正确。使用场景复杂推理数据分析调试代码法律类审查文本重写需保留逻辑链路3Step-back Prompting先从抽象层面对问题“提纲”白皮书里展示了非常漂亮的提升效果先让模型列出“FPS 游戏关卡的关键元素”再让它写关卡故事质量显著提升。适合写报告写文档复杂内容生成例如产品描述4Self-Consistency同一题生成多次选概率最高的答案白皮书有明确示例分类邮件“重要/不重要”任务多次生成出现不同答案通过“多数投票”找到更稳定结果。适合风险类内容法律类数学逻辑决策性任务5Sampling 配置非常工程化白皮书集中强调了 4 个必须理解的开关TemperatureTop-KTop-PMax output tokens尤其是重复循环 bugrepetition loop bug是常见问题会在极低或极高 temperature 下出现。建议默认配置temperature0.2 top_p0.95 top_k30创意类temperature0.9 top_p0.99 top_k40严格任务temperature0PS: 理解Temperature、Top-K、Top-P、Max output tokens这些参数被归类为Sampling Configuration被认为是影响模型“风格、创造力、稳定性”的核心因素。✔Temperature温度控制“随机性/创造力”的开关。高温度0.7–1.2→ 发散、有创意、可能胡说低温度0–0.3→ 稳定、公式化、不发散Temperature 0→ 最确定、最可控写代码、生成文档、写总结 →温度越低越****好写故事、创意、文案 →温度越高越好✔Top-P核采样控制“模型能考虑的候选词的概率区间”。Top-P 1→ 模型可以选所有候选词更混乱Top-P 0.9→ 模型只会从最可能的前 90% 里选词更稳定严谨任务0.9 创意任务0.95~1.0✔Top-K控制“模型能考虑的前 K 个词”。Top-K 1→ 只选最可能的词Top-K 40→ 常用、稳定Top-K 100→ 更发散、随机这在 PDF 中属于“影响输出随机性的重要参数”。✔Max output tokens最大输出 token 限制用来控制“模型最多能说多少内容”。值越大 → 输出越长值越小 → 容易内容没说完就被截断例如要写报告 → 设置大一点要生成一句短文案 → 设置小一点防止啰嗦LLM如ChatGPT无“参数设置界面”通过指令 Prompt控制采样行为或使用API精确设定数值如请以接近 temperature0 的方式回答保持内容确定性不要发散。上下文工程Prompt 之外更重要的是“你丢进去的东西”各类网上资料反复强调写 Prompt 不如写 Context。Prompt 只是“命令”上下文Context才是“素材 限制 规则 示例 目标环境”。工程实战里我会把上下文拆成五类任务背景Background Context输入材料Raw Input历史对话Conversation Memory工具 / API / SchemaTool Context示例Few-shot Context一个 Prompt 好不好关键不在“写得多高级”而在你是否给模型提供了足够上下文让它无需“猜测意图”。实战示例从“劣质 Prompt”到“工程化 Prompt”来做一个真实例子任务让模型“总结一段会议内容”。❌ 劣质 Prompt帮我总结下这段会议记录。问题没有角色没有目标没有结构没有限制没有上下文模型想怎么写就怎么写输出肯定乱。✅ 工程化 Prompt五段式[Role] 你是一个资深会议纪要分析专家擅长提炼结构化信息与关键决策。 [Goal] 目标基于给定会议记录生成一个可直接用于项目管理的纪要包含 - 背景 - 任务进展 - 决策点 - 风险 - 下一步行动 [Input] 下面是会议原文 ——— 会议全文 ——— [Process] 请严格按照以下步骤执行 1. 阅读输入内容 2. 提取关键事件不超过 10 条 3. 根据 Goal 的结构生成纪要 4. 确保所有信息均来自材料不可推测 [Output] 请严格按照如下 JSON 格式输出 { background: , progress: [], decisions: [], risks: [], next_steps: [] }如果你把两者跑一下会看到巨大的差异总结写 Prompt 最重要的三个动作用一句最工程的方式收尾Prompt 人为构造一个“低不确定性输入空间”。真正重要的不是花哨技巧而是以下三点1结构化而不是堆字数你永远应该写角色目标步骤格式示例2给足上下文不要让模型猜上下文越完整模型越稳。3把复杂任务拆成过程而不是一句话丢进去CoT、Step-back、Few-shot 都是为了解决“模型一次性做不好”的问题。做好这三件事Prompt 工程的效果立刻上一个台阶。最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念通过动态追踪大模型开发、数据标注伦理等前沿技术趋势构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能 突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**