2026/4/16 23:49:55
网站建设
项目流程
杭州英文网站建设,网站设计的技能要求,订单展示 wordpress,wordpress 食谱网站你是否曾因算力门槛而对大模型望而却步#xff1f;想要尝试微调千亿/万亿参数的模型#xff1f;那更是不敢想象。今天#xff0c;这个困局正在被打破。
近日#xff0c;趋境科技与清华KVCache.AI共同开源的KTransformers上线模型微调功能。其与LLaMA-Factory合作#xff0…你是否曾因算力门槛而对大模型望而却步想要尝试微调千亿/万亿参数的模型那更是不敢想象。今天这个困局正在被打破。近日趋境科技与清华KVCache.AI共同开源的KTransformers上线模型微调功能。其与LLaMA-Factory合作能够实现在本地对DeepSeek 671B乃至Kimi K2 1TB这样的超大模型进行LoRA微调。是目前在消费级显卡上实现微调超大参数MoE模型的唯一可行方案。更令人惊喜的是该方案不仅解决了能不能跑的问题更在跑得多快上表现出色。在较小规模模型上实现了1.8倍的吞吐提升同时将显存占用降低82%。GitHub地址https://github.com/kvcache-ai/ktransformers01详细介绍KTransformers自2024年发布以来作为专注于大模型推理优化的开源框架一直以其独特的异构计算策略闻名。通过KTransformers单张4090即可部署千亿/万亿级别的大模型。而LLaMA-Factory是目前非常流行的开源大模型微调框架以其低代码、高效率的特点在开发者社区广受好评。在这次合作中LLaMA-Factory与KTransformers各自有明确分工具体而言LLaMA-Factory是整个微调流程的统一调度与配置框架负责数据处理、训练调度、LoRA插入与推理接口管理KTransformers则作为其可插拔的高性能后端在相同的训练配置下接管Attention / MoE等核心算子实现异构设备GPUCPU的高效协同。虽然LLaMA-Factory有HuggingFace默认后端、Unsloth后端以及KTransformers后端但经团队对比测试KTransformers是目前唯一能在24张 24GB 4090卡上微调671B规模MoE模型的方案同时在14B规模的MoE模型上相比另两种方案也具有更高的吞吐速率和更低的GPU显存占用。02实测效果1、风格化对话测试CatGirl风格语气团队首先在NekoQA-10K数据集上进行了风格化对话测试这是一个面向猫娘语言建模的对话数据集。对比原始模型和微调模型可以看到微调后的模型已经不在是冷冰冰的标准化回答而是在语气和称谓上稳定地保持了猫娘风格红框部分验证了风格迁移微调的有效性。2、生成式翻译风格基准测试团队还进行了翻译风格测试采用西式翻译腔数据集要求模型采用夸张的“西式翻译腔”属于生成式风格控制任务评价指标为BLEU-1/2/3/4与 ROUGE-1/2/L。可以看到两种规模的模型在微调后均出现一致性增益展现出“KT后端 LoRA微调”组合在生成式风格控制上的可用性与有效性。同时说明KT的异构放置与算子优化能够稳定支撑风格域的小样本适配。3、医疗垂直领域基准AfriMed-SAQ/MCQ在医疗垂直领域微调也十分有效数据集采用非洲地区医疗领域的专用数据集AfriMed-QAACL-2025)具有很强的场景定制特征包含单选题MCQ和简答题SAQ两种形式。评估标准上SAQ用BLEU/ROUGEMCQ用Accuracy。03如何使用下面将为大家讲解如何安装环境并通过LLaMA-Factory KTransformers的方式完成微调和推理。为简化KTransformers安装过程团队特意打包了一个wheel文件避免本地编译。注意应确保本地Python版本、Torch版本、CUDA版本和KTransformers wheel 文件名正确对应。1、环境安装# 1. 安装conda环境 conda create -n Kllama python3.10# choose from : [3.10, 3.11, 3.12, 3.13] conda install -y -c conda-forge libstdcxx-ng gcc_impl_linux-64 conda install -y -c nvidia/label/cuda-11.8.0 cuda-runtime # 2. 安装llamafactory环境 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e .[torch,metrics] --no-build-isolation # 3. 从 https://github.com/kvcache-ai/ktransformers/releases/tag/v0.4.1 安装与 Torch 和 Python 版本匹配的 KTransformers 软件包注意CUDA 版本可以与 wheel 文件命名不一致。 pip install ktransformers-0.4.1cu128torch28fancy-cp310-cp310-linux_x86_64.whl # 4. 安装 flash-attention请根据 Python 和 Torch 版本从以下地址下载对应文件https://github.com/Dao-AILab/flash-attention/releases pip install flash_attn-2.8.3cu12torch2.8cxx11abiTRUE-cp310-cp310-linux_x86_64.whl # abiTrue/False 可以用下面代码查看 # import torch # print(torch._C._GLIBCXX_USE_CXX11_ABI) # 5. 可选如果希望使用 flash_infer若不指定则默认使用 triton git clone https://github.com/kvcache-ai/custom_flashinfer.git pip install custom_flashinfer/使用提示在LLaMA-Factory的YAML配置文件中设置use_kt: true并选择一个kt_optimize_ruleYAML文件即可让KTransformers处理核心计算。下面将通过具体功能说明如何设置相关配置。核心功能 1使用 KTransformers 后端微调超大规模MoE模型运行命令USE_KT1 llamafactory-cli train examples/train_lora/deepseek3_lora_sft_kt.yaml注意必须提供BF16格式的模型。DeepSeek-V3-671B默认以FP8格式发布请使用 https://github.com/deepseek-ai/DeepSeek-V3/blob/main/inference/fp8_cast_bf16.py脚本进行格式转换。### model model_name_or_path: opensourcerelease/DeepSeek-V3-bf16 trust_remote_code: true ### method stage: sft do_train: true finetuning_type: lora lora_rank: 8 lora_target: all ### dataset dataset: identity template: deepseek cutoff_len: 2048 max_samples: 100000 overwrite_cache: true preprocessing_num_workers: 16 dataloader_num_workers: 4 ### output output_dir: saves/Kllama_deepseekV3 logging_steps: 10 save_steps: 500 plot_loss: true overwrite_output_dir: true save_only_model: false report_to: none # choices: [none, wandb, tensorboard, swanlab, mlflow] ### train per_device_train_batch_size: 1 gradient_accumulation_steps: 8 learning_rate: 1.0e-4 num_train_epochs: 3.0 lr_scheduler_type: cosine warmup_ratio: 0.1 bf16: true ddp_timeout: 180000000 resume_from_checkpoint: null ### ktransformers use_kt: true# use KTransformers as LoRA sft backend kt_optimize_rule: examples/kt_optimize_rules/DeepSeek-V3-Chat-sft-amx-multi-gpu.yaml cpu_infer: 32 chunk_size: 8192其中kt_optimize_rule用于控制计算资源的放置策略。下为针对YAML文件名和功能对照特别说明也可参考https://github.com/kvcache-ai/ktransformers/tree/main/ktransformers/optimize/optimize_rules目录。* 表示通配符例如DeepSeek-V3-Chat-sft-amx-multi-gpu.yaml为DeepSeek-V3-Chat模型使用AMX指令集和双GPU模型并行技术微调。建议使用AMX指令集加速可通过 lscpu | grep amx 命令检测CPU是否支持AMX指令集。AMX支持BF16/INT8精度。修改方式如下- match: name: ^model\\.layers\\..*\\.mlp\\.experts$ replace: class: ktransformers.operators.experts.KTransformersExperts # custom MoE Kernel with expert parallelism kwargs: prefill_device: cpu prefill_op: KExpertsTorch generate_device: cpu generate_op: KSFTExpertsCPU out_device: cuda backend: AMXInt8# or AMXBF16 or llamafile (default)输出文件将保存到output_dir目录中默认为safetensors格式并包含适配器元数据便于后续加载使用。核心功能二与微调后的模型基础模型 LoRA 适配器进行对话运行命令llamafactory-cli chat examples/inference/deepseek3_lora_sft_kt.yaml使用通过KTransformers训练得到的safetensors格式适配器进行推理。model_name_or_path: opensourcerelease/DeepSeek-V3-bf16 adapter_name_or_path: saves/Kllama_deepseekV3 template: deepseek infer_backend: ktransformers # choices: [huggingface, vllm, sglang, ktransformers] trust_remote_code: true use_kt: true# use KTransformers as LoRA sft backend to inference kt_optimize_rule: examples/kt_optimize_rules/DeepSeek-V3-Chat-sft-amx-multi-gpu.yaml cpu_infer: 32 chunk_size: 8192同时还支持GGUF格式的适配器对于safetensors格式设置目录路径对于GGUF格式需要在adapter_name_or_path中设置具体的GGUF格式文件。在加载过程中LLaMA-Factory会将层名称映射到KT的命名规范。会看到类似 Loaded adapter weight: XXX - XXX 的日志记录核心功能三批量推理与指标评估基础模型 LoRA 适配器运行命令API_PORT8000 llamafactory-cli api examples/inference/deepseek3_lora_sft_kt.yaml调用经KTransformers微调的适配器来提供API其他API的使用逻辑与原生LLaMA-Factory方式一致。model_name_or_path: opensourcerelease/DeepSeek-V3-bf16 adapter_name_or_path: saves/Kllama_deepseekV3 template: deepseek infer_backend: ktransformers # choices: [huggingface, vllm, sglang, ktransformers] trust_remote_code: true use_kt: true# use KTransformers as LoRA sft backend to inference kt_optimize_rule: examples/kt_optimize_rules/DeepSeek-V3-Chat-sft-amx-multi-gpu.yaml cpu_infer: 32 chunk_size: 819204总结KTransformers与LLaMA-Factory的这次联手远不止是一次技术迭代更是一次深刻的行业范式转移。这感觉就像以前我们只能远远看着博物馆里的名画后来终于能凑近看了而现在他们直接把画笔递到你手里说“来照着你的想法改”。万亿模型从此不再是巨头们的专属玩具而是每个人手中的积木。接下来就看我们怎么用它搭出下一个惊喜了。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”