2026/4/18 22:42:15
网站建设
项目流程
做网站要通过网信办备案吗,佛山优化网站,深圳网站建设定制开发服务,网站关键词长尾词本文提供了大模型从入门到精通的完整学习路线#xff0c;建议从Llama、Qwen等主流模型入手#xff0c;先掌握prompt工程再深入架构学习。学习目标包括熟悉主流LLM技术架构、积累RAG和微调项目经验、掌握推理加速框架等。文章提供了丰富的学习资源#xff0c;包括书籍、课程、…本文提供了大模型从入门到精通的完整学习路线建议从Llama、Qwen等主流模型入手先掌握prompt工程再深入架构学习。学习目标包括熟悉主流LLM技术架构、积累RAG和微调项目经验、掌握推理加速框架等。文章提供了丰富的学习资源包括书籍、课程、教程等采用先调包后深入的学习方式结合原理学习、代码实践和输出总结内容涵盖提示学习、模型微调、预训练、推理优化等全流程助力开发者系统掌握大模型技术。大模型学习路线建议先从主流的Llama开始然后选用中文的Qwen/Baichuan/ChatGLM先快速上手体验prompt工程然后再学习其架构跑微调脚本前排提示文末有大模型AGI-CSDN独家资料包哦如果要深入学习建议再按以下步骤从更基础的GPT和BERT学起因为底层是相通的而且实际落地到一个系统中应该也是大模型结合小模型大模型在做判别性的任务上比BERT优势不是特别大可以参考如下方案按需学习。一、简述按个人偏好总结了学习目标与路径后续将陆续整理相应学习资料并输出学习笔记。学习思路 快速应用Transformer等轮子来微调和使用LLM同时深入学习NLP预训练模型原理和推理部署因为偏底层的东西变化不大学习目标熟悉主流LLMLlama, ChatGLM, Qwen的技术架构和技术细节有实际应用RAG、PEFT和SFT的项目经验较强的NLP基础熟悉BERT、GPT、Transformer、T5等预训练语言模型的实现有对话系统相关研发经验掌握TensorRT-LLM、vLLM等主流推理加速框架熟悉模型量化、FlashAttention等推理加速技术方案对分布式训练DeepSpeed框架有实战经验熟悉Pytorch具备扎实的深度学习和机器学习基础基本掌握C/C、Cuda和计算机系统原理参考项目torchkerasllm-action参考书籍大规模语言模型从理论到实践ChatGPT原理与实战Alt text参考课程面向开发者的LLM入门课程吴恩达课程-中文版github.com/datawhalechi普林斯顿-COS 597G (Fall 2022): Understanding Large Language Modelscs.princeton.edu/course斯坦福-CS324 - Large Language Modelsstanford-cs324.github.io教程Huggingface Transformers官方课程 huggingface.co/learn/nlTransformers快速入门快速调包BERT系列transformers.run/学习方式力求快速应用 先调包再深入学习在实践中动手学习力求搞懂每个关键点【原理学习】【代码实践】 【输出总结】基础知识视频课程吴恩达机器学习入门coursera.org/learn/mach李沐讲AIspace.bilibili.com/1567台大李宏毅-机器学习: speech.ee.ntu.edu.tw/~h斯坦福NLP cs224n: web.stanford.edu/class/书籍深度学习入门基于Python的理论与实践, numpy实现MLP、卷积的训练《深度学习进阶自然语言处理》numpy实现Transformers、word2vec、RNN的训练Dive In Deep Learning(动手学深度学习) d2l.ai/《神经网络与深度学习》nndl.github.io/《机器学习方法》李航的NLP相关的机器学习 深度学习知识按需选学强化学习强化学习教程-蘑菇书EasyRL李宏毅强化学习强化学习纲要: datawhalechina.github.io动手学强化学习: github.com/boyu-ai/Hand博客苏剑林科学空间信息时代下的文章 - Scientific Spaces这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】学习纲要应用1、Zero Shot / Few Shot 快速开箱即用Prompt调优:上下文学习In-Context Learning, ICL思维链 Chain of Thought, COTRAG (Retrieval Augmented Generation)基于文档分块、向量索引和LLM生成如Langchain文档问答2、领域数据-指令微调LLMPEFT (Parameter-Efficient Fine-Tuning):LORA (Low-Rank Adaption of LLMs)QLORASLORAP-Tuning v2参数高效的微调适合用于纠正模型输出格式PEFT上限不高并向LLM输入的知识有限SFT (Supervised Fintuning):全参数监督微调使用prompt指令样本全量微调LLM可以注入新的领域知识需要控制样本配比领域数据 通用数据3、对齐对齐人类偏好 (RLHF)RewardModel 奖励模型 排序标注判断答案价值RL (PPO 更新SFT模型)专注基于强化学习的大语言模型对齐有前景的方向是SuperhumanAI AutoALign4、预训练小模型预训练 (GPT2, TinyLlama)不考虑训练参数规模较大的语言模型5、训练推理优化模型量化推理加速蒸馏推理框架vLLM、TensorRT-LLM、Llama.cpp二、学习目录第1章 技术与需求分析1.1 技术分析LLM的发展历程与趋势开源LLM生态Llama系列Mistral / Mixtral-8X7B-MOE mistral.ai/news/mixtralChatGLM / Baichuan / Qwen1.2 市场需求分析需求和就业市场分析预训练、对齐微调、应用推理加速商业落地分析(2C、2B应用场景)第2章 ChatGPT背景与原理2.1 ChatGPT的工作原理预训练与提示学习阶段结果评价与奖励建模阶段强化学习阶段2.2 算法细节标注数据建模思路第3章 预训练语言模型3.1 Transformer论文《Attention Is All Your Need》解析:图解Transformerjalammar.github.io/illu详解Transformer原理cnblogs.com/justLittleS实战Torch代码详解和训练实战cnblogs.com/justLittleS3.2 GPTGPT论文GPT-1Improving Language Understanding by Generative Pre-TrainingGPT-2: Language Models are Unsupervised Multitask LearnersGPT-3Language Models are Few-Shot LearnersGPT-4GPT-4 Technical Report(openai.com)解析GPT2图解jalammar.github.io/illuGPT2图解中文cnblogs.com/zhongzhaoxiGPT3分析How GPT3 Works - Visualizations and AnimationsGPT原理分析cnblogs.com/justLittleS推理GPT2模型源码阅读系列一GPT2LMHeadModel60行代码实现GPT推理PicoGPTcnblogs.com/justLittleS动手用C实现GPTToDo, 参考CPP实现Transformer训练训练GPT2语言模型基于Transformers库-Colab预训练GPT2Transformers库GPT实现分析ToDoMiniGPT项目详解-实现双数加法blog.csdn.net/wxc971231NanoGPT项目详解代码分析zhuanlan.zhihu.com/p/60训练实战莎士比亚数据训练, ToDoGPT2微调-文本摘要实战数据预处理模块GPT-2模型模块模型训练和推理模块3.3 BERT原理BERT可视化A Visual Guide to Using BERT for the First TimeBERT原理cnblogs.com/justLittleS实战BERT结构和预训练代码实现ToDoBERT预训练实战动手学深度学习-BERT预训练 Colab基于HuggingFace的BERT预训练BERT微调文本分类BERT-CRF NERBERT指针网络UIE信息抽取文本摘要/问答相似性检索: SimCSE-BERT衍生系列RoBERTa / ALBERT / DistillBERT3.4 T5系列T5-Pegasus对话摘要微调PromptClue关键词抽取微调3.5 UniLMUniLM模型介绍基于夸夸闲聊数据的UniLM模型实战第4章 提示学习与大型语言模型4.1 提示学习PromptLearning提示学习介绍提示模板设计答案空间映射设计4.2 上下文学习 ContextLearning上下文学习介绍预训练阶段提升上下文推理阶段优化上下文4.3 指令数据构建手动和自动构建指令开源指令数据集基于提示的文本情感分析实战: github.com/liucongg/Cha第5章 开源大型语言模型5.1 MistralMistral 7B Tutorial: datacamp.com/tutorial/mMistral-8X7B-MOE的模型结构Mistral -8X7B-MOE源码解析Mistral-7B微调5.2 LlamaLlama1Llama1源码深入解析:zhuanlan.zhihu.com/p/64Llama2Llama2的优化Llama2源码解析llama 2详解 zhuanlan.zhihu.com/p/64Llama2-6B微调5.3 ChatGLMChatGLM简介ChatGLM-6B微调ChatGLM2微调保姆级教程:zhuanlan.zhihu.com/p/64第6章 LLM微调6.1 全量指令微调SFT6.2 高效微调PEFTLORA系列LoRALow Rank AdapterChatGLM-6B: zhuanlan.zhihu.com/p/62ChatGLM2微调保姆级教程: zhuanlan.zhihu.com/p/64ChatGLM3-6B微调QLoRA用bitsandbytes、4比特量化和QLoRA打造亲民的LLM:cnblogs.com/huggingfaceAdaLoRaSLoRA其他P-Tuning V2介绍P-Tuning v2微调实战实战HuggingFace PEFT库详解Deepspeed-Chat SFT 实践第7章 大型语言模型预训练7.1 预训练模型中的分词器BPE详解WordPiece详解Unigram详解SentencePiece详解MinBPE实战和分析github.com/karpathy/min7.2 分布式训练分布式训练概述分布式训练并行策略分布式训练的集群架构分布式深度学习框架Megatron-LM详解DeepSpeed详解实践基于DeepSpeed的GLM预训练实战基于DeepSpeed的LLaMA 分布式训练实践7.3 MOE混合专家模型基础概念Mixstral-8X7B-MOE-介绍相关论文第8章 LLM应用8.1 推理规划思维链提示Chain-of-Thought Prompting论文实战由少至多提示Least-to-Most Prompting8.2 综合应用框架LangChain框架核心模块9个范例带你入门langchain:zhuanlan.zhihu.com/p/65知识库问答实践8.3 智能代理AI Agent智能代理介绍LLM Powered Autonomous Agents: lilianweng.github.io/po智能代理的应用实例第9章 LLM加速9.1 注意力优化FlashAttention系列PagedAttention深入理解 BigBird 的块稀疏注意力: cnblogs.com/huggingfacehf.co/blog/big-bird9.2 CPU推理加速Llama.c应用与代码详解Llama.cpp应用与代码详解ChatGLM.cpp应用与代码详解9.3 推理优化框架vLLM推理框架实践TensorRT-LLM应用与代码详解9.4 训练加速第10章 强化学习10.1 强化学习概述10.2 强化学习环境10.3 强化学习算法Q-learning算法DQN算法Policy Gradient算法Actor-Critic算法第11章 PPO算法与RLHF理论实战11.1 近端策略优化算法PPOPPOProximal Policy Optimization Algorithms 论文PPO介绍广义优势估计PPO算法原理剖析PPO算法对比与评价使用PPO算法进行RLHF的N步实现细节: cnblogs.com/huggingfacePPO实战基于PPO的正向情感倾向性 github.com/liucongg/Cha11.2 基于人类反馈的强化学习RLHFInstructGPT模型分析InstructGPTTraining language models to follow instructions with human feedback论文RLHFAugmenting Reinforcement Learning with Human FeedbackRLHF的流程RLHF内部剖析详解大模型RLHF过程配代码解读 zhuanlan.zhihu.com/p/62RLHF价值分析RLHF问题分析数据收集与模型训练RLHF实践数据预处理模块模型训练\生成\评估zhuanlan.zhihu.com/p/63MOSS-RLHF 实践奖励模型训练PPO 微调第12章 类ChatGPT实战12.1 任务设计12.2 数据准备基于文档生成问题任务的类 github.com/liucongg/ChaSFT阶段RM阶段RL阶段第13章 语言模型训练数据13.1 数据来源通用数据专业数据13.2 数据处理低质过滤冗余去除隐私消除13.3 数据影响分析数据规模影响数据质量影响数据多样性影响13.4 开源数据集合PileROOTSRefinedWebSlimPajama第14章 大语言模型评估14.1 模型评估概述14.2 大语言模型评估体系知识与能力伦理与安全垂直领域评估14.3 大语言模型评估方法评估指标评估方法14.4 大语言模型评估实践基础模型评估SFT/RL 模型评估第15章 多模态大模型多模态大模型调研实战第16章 大模型原生应用16.1 落地调研应用分析提供大模型基础服务ChatGPT、Gemini、文心一言和GLM4等主要面向ToC/ToB提供chat能力内容创作、代码开发等通过会员收费或按Token计费ToB提供成套解决方案集成现有接口二次开发应用开发开源模型增量预训练、全量微调、高效微调行业内落地模型最终还需落地解决实际问题创造价值优化现有问题、满足、甚至创造用户需求。总的来说就是规模化、自动化人的工作替代人工批量化、大规模生成或提供服务。16.2 应用分析一些思考在企业里面做7B、13B量级的微调主要就是在搞数据、样本技术壁垒不高。预训练壁垒高因为需要烧钱堆经验。在这个日新月异的时代如何紧跟行业主流发展并具备不可替代性是个难题稀缺不可替代性稳定业务和表层技术天天变但底层的理论变化不大需求持续最好是类似衣食住行的刚需否则技术 过时/热度褪去/不达预期泡沫崩溃不能越老越吃香放到绝大多数行业都适用不能经验积累持续长期创造价值壁垒技术、业务、资本上有垄断尽量往底层和工程化上靠学习相对不变的技术理论上变化很难迁移到稳定或有前景的行业不断提升自己的学习效率计算机系统知识训练、推理、开发模型推理部署工程化数学深入学习并实践如何学习AI大模型我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】第一阶段从大模型系统设计入手讲解大模型的主要方法第二阶段在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段以SD多模态大模型为主搭建了文生图小程序案例第七阶段以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。1.AI大模型学习路线图2.100套AI大模型商业化落地方案3.100集大模型视频教程4.200本大模型PDF书籍5.LLM面试题合集6.AI产品经理资源合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】