2026/2/19 4:10:04
网站建设
项目流程
分销网站建设方案,做标书有什么好的网站吗,莱芜吧重汽怎么样,网站建设工具品牌有哪些本文记录通过vLLM将llama guard在服务器端进行部署并进行模型微调的过程。由于一些文档不完善#xff0c;本文尽可能提供了一些常见问题解决方案#xff0c;以及配置方法供大家参考。
link
llama stackllama guard 3-1 BXpost
利用Vllm启动服务并部署
利用conda创建虚拟环…本文记录通过vLLM将llama guard在服务器端进行部署并进行模型微调的过程。由于一些文档不完善本文尽可能提供了一些常见问题解决方案以及配置方法供大家参考。linkllama stackllama guard 3-1 BXpost利用Vllm启动服务并部署利用conda创建虚拟环境conda create -n env name pythonpython 版本conda env listconda activate env namepip list模型下载3-1 b 模型地址 (测试后发现3-1b 非常垃圾不建议使用)huggingface-cli login, 输入token这里需要在hugging face 上登录认证并签署协议等待5-10min认证通过即可。安装lfs工具,git lfs installgit clonehugging face url另外一种方法是在代码中直接运行如果没有的话会自动下载tokenizer AutoTokenizer.from_pretrained(model name,catch_dircatch_dir,token), 这里启动服务 vLLM指定GPU python -m vllm.entrypoints.openai.api_server --port 5123 --model meta-llama/Llama-Guard-3-1B指定GPU运行检查GPU使用情况:nvidia-smi查看具体某个GPU使用情况:nvidia-smi -q -i 7指定GPU运行:CUDA_VISIBLE_DEVICES6,7发送请求import requests url http://localhost:5123/v1/chat/completions headers { Content-Type: application/json } data { model: meta-llama/Llama-Guard-3-1B, messages: [ {role: user, content: Hello!} ] } response requests.post(url, headersheaders, jsondata)另外一种方法:from openai import OpenAI client OpenAI( base_urlhttp://localhost:5123/v1, api_key , ) completion client.chat.completions.create( modelmeta-llama/Llama-Guard-3-8B, messages[ {role: user, content: content} ], temperature0 ) print(completion.choices[0].message.content)查看模型是成功运行。查看端口占用情况lsof -inetstat -anp|grep 5123利用LLaMA-Factory进行微调Safeguarding LLM Conversations Using Llama Guardmeta: llama_guard_customization如图所示 llama guard实际上的输入信息是一组对话对于流式生成来说是没有办法拦截生成对话的。因此我们决定对模型进行调整增加训练语料添加多轮对话缺少最后一次Agent生成的数据添加其他训练类别的数据下载并配置llama factory数据格式|image| Task: Check if there is unsafe content in {role} messages in conversations according to our safety policy with the below categories. BEGIN UNSAFE CONTENT CATEGORIES {unsafe_categories} END UNSAFE CONTENT CATEGORIES BEGIN CONVERSATION {conversation} END CONVERSATION Provide your safety assessment for ONLY THE LAST {role} in the above conversation: - First line must read safe or unsafe. - If unsafe, a second line must include a comma-separated list of violated categories.更多可以参考 meta llama-guard-3一定要注意换行、空格、缩进等数据格式需要符合llama factory的要求 [ “instruction”: “”, “input”:“”, “output”:“” ] 其中instruction输入prompt内容output输入期待输出。 在LLaMA-Factory/data/dataset_info.json中添加你的数据集名称和地址。yaml 文件配置更改配置文件lora_sft_ds3.yamlmodel_name_or_path ### dataset dataset 同dataset_info中的地址 template: llama3 cutoff_len: 4096 这里需要查model card确认 ### train per_device_train_batch_size: 1 gradient_accumulation_steps: 2 learning_rate: 1.0e-4 num_train_epochs: 3.0 lr_scheduler_type: cosine warmup_ratio: 0.1 bf16: true ddp_timeout: 180000000 ### eval val_size: 0.1 per_device_eval_batch_size: 1 eval_strategy: steps eval_steps: 5000000这里我们选用了Lora进行微调。LoRA是一种新型的微调方法旨在解决预训练模型微调过程中存在的两大问题模型调整过程中对初始模型过度依赖以及微调过程中存在的过拟合问题。LoRA通过在预训练模型中引入一个额外的线性层并使用特定任务的训练数据来微调这个线性层。这种方法使模型能够更好地适应特定任务同时减少了对初始模型的过度依赖。微调参数learning_rate: 1.0e-5 是Meta官方推荐不建议更改。gradient_accumulation_steps * per_device_train_batch_size * save_steps max_samples批大小batch sizeeffective_batch_size batch_size * gradient_acc_step运行程序注意因为配置文件中用了相对路径所以必须在llamafactory根目录下启动程序:CUDA_VISIBLE_DEVICES6,7 llamafactory-cli train /home/feiyu_jiang/LLaMA-Factory/examples/train_lora/llama_guard_lora_sft_ds3.yaml启动微调后的模型因为我们使用lora进行模型微调的所以模型本身名称没有改变。添加参数--lora-modules {name: sql-lora, path: /path/to/lora, base_model_name: meta-llama/...}启动即可。eg:python -m vllm.entrypoints.openai.api_server --port 5123 --model meta-llama/Llama-Guard-3-8B --enable-lora --lora-modules sql-lorapath附录常见报错undefined symbol: __nvJitLinkAddData_12_1, version libnvJitLink.so.121,2错误原因表明您的系统中缺少一个名为__nvJitLinkAddData_12_1的符号定义, pyTorch 与 nvidia的动态库没有正确链接3解决方法切换conda环境(guard-vllm)检查torch版本:pip show torch检查CUDA版本:nvcc -v检查CUDA环境变量地址:echo $LD_LIBRARY_PATH添加CUDA路径:export LD_LIBRARY_PATH/usr/local/cuda/lib64:$LD_LIBRARY_PATH搜错动态链接库find ~/ -name libnvJitLink.so.12/home/user_nameminiconda3/envs/guard-vllm/lib/python3.10/site-packages/nvidia/nvjitlink/lib/libnvJitLink.so.12添加临时环境变量export LD_PRELOAD/home/user_name/miniconda3/envs/guard-vllm/lib/python3.10/site-packages/nvidia/nvjitlink/lib/libnvJitLink.so.12如何嫌弃太麻烦可以直接写在home../.bashrc里面每次启动终端自动加载另外也可以选择降级torch到稳定版本想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2026 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2026 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”