2026/3/30 8:12:40
网站建设
项目流程
常州建设局网站首页,门户网站优化怎么做,中国软件,建造个网站花多少钱AI Ping 赋能#xff1a;基于 GLM-4.7#xff08;免费!) LangChain Redis 打造智能AI聊天助手 本文章目录AI Ping 赋能#xff1a;基于 GLM-4.7#xff08;免费!) LangChain Redis 打造智能AI聊天助手摘要GLM-4.7 MiniMax M2.1 实测上线#xff01;AI Ping 免费用…AI Ping 赋能基于 GLM-4.7免费!) LangChain Redis 打造智能AI聊天助手本文章目录AI Ping 赋能基于 GLM-4.7免费!) LangChain Redis 打造智能AI聊天助手摘要GLM-4.7 MiniMax M2.1 实测上线AI Ping 免费用速冲一、智能AI聊天助手应用展示(一) 应用简介(二) 核心功能演示1. 流式对话交互2. 对话记忆能力二、AI Ping智能聊天助手的核心支撑平台(一) 为什么选择 AI Ping 对接 GLM-4.7(二) AI Ping 对 GLM-4.7 的核心赋能1. 统一 API 简化集成2. 智能路由保障稳定性3. 性能可视化与成本优化三、技术实现流程GLM-4.7 LangChain Redis AI Ping(一) 前期准备AI Ping 注册与配置(二) 核心配置文件(三) 核心代码解析1. LLM 模型初始化2. 智能体创建3. 对话处理与流式响应(四) 运行与部署四、总结与扩展(一) 核心价值(二) 扩展方向五、参考资料摘要本文介绍一款基于 AI Ping 平台搭建的智能AI聊天助手通过集成 AI Ping提供的免费GLM-4.7 大模型、LangChain 智能体框架与 Redis 缓存技术实现“流式对话 对话记忆 工具调用”的全场景智能交互体验。应用依托 AI Ping 提供的统一 API、智能路由与多供应商性能保障能力解决大模型聊天助手开发中“模型集成繁、对话记忆难、服务稳定性差”的核心痛点借助 LangChain 实现智能体编排与工具扩展通过 Redis 高效存储和管理对话历史最终基于 FastAPI 构建高性能流式对话接口为用户提供专业、实时且具备记忆能力的智能聊天服务。GLM-4.7 MiniMax M2.1 实测上线AI Ping 免费用速冲 重磅福利AI Ping 平台现已免费开放 GLM-4.7、MiniMax M2.1 两大旗舰模型无需付费注册即享高并发调用、稳定响应邀友注册双方各得 20 元算力点全场通用、上不封顶目前AI Ping正在进行福利活动用专属福利链接即可免费获得30算力。快通过专属福利链接进行注册吧https://aiping.cn/#?channel_partner_codeGQCOZLGJ一、智能AI聊天助手应用展示(一) 应用简介智能AI聊天助手是一款聚焦“全场景智能交互”的工具针对传统聊天机器人“无记忆、无实时信息、响应卡顿”的痛点整合 AI Ping 平台的 GLM-4.7 模型能力、LangChain 智能体编排能力与 Redis 对话记忆能力实现三大核心功能支持日常自然对话与专业问答响应精准且友好集成搜索工具获取实时信息解决静态模型“信息滞后”问题基于 Redis 存储并摘要对话历史实现长对话记忆能力流式响应输出模拟真人打字效果提升交互体验。应用后端采用 FastAPI Python 技术栈结合 LangChain 构建智能体、Redis 做会话缓存前端适配 Vue 3 Element Plus 实现交互界面整体架构轻量化且高性能单会话响应延迟控制在 100ms 内支持高并发用户访问。(二) 核心功能演示1. 流式对话交互用户输入问题后助手以流式方式逐字返回响应界面呈现“打字机”效果避免用户长时间等待。例如询问“给我讲个笑话”助手会实时输出内容总响应时间不超过 5 秒且回答精准匹配 GLM-4.7 的工程交付能力、可控推理等核心特点。2. 对话记忆能力基于 Redis 存储用户对话历史并生成摘要助手可跨轮次理解上下文。例如用户第一轮“你听说过AI ping吗”助手回复“您提到的“AI ping”可能是指Humane AI Pin或者简称 AI Pin这是一款由 Humane 公司推出的备受关注的可穿戴 AI 硬件设备。 如果您指的是这个以下是关于它的一些关键信息 1.无屏幕设计它没有传统的触摸屏主要通过语音、手势和触摸板进行交互。 2.激光投影设备可以将信息如时间、通知、消息直接投射到用户的手掌上。 3.AI 核心它深度集成了大语言模型LLM旨在作为一个智能助手帮助处理发送信息、导航、翻译等任务其愿景是减少人们对智能手机的依赖。 4.市场反响虽然概念非常前卫试图重新定义人机交互但在发布初期产品在续航、发热、响应速度和实用性方面遇到了一些挑战评价褒贬不一。 —如果您指的不是 AI Pin而是其他含义*网络领域可能指利用 AI 技术来优化网络中的 Ping 值延迟检测或进行网络故障诊断。 *特定工具可能是指某个特定的小众工具或软件。 如果以上都不是您想问的内容请您补充更多细节我会为您提供更准确的信息。”用户第二轮“我前面问了你些什么问题”助手可通过上下文给出回答“根据我们的对话记录您之前主要问了以下内容 1.身份确认询问了我的身份和能力。 2.时间查询询问了今天的日期确认为2025年12月23日。 3.娱乐互动让我讲一个笑话我讲了一个关于蜗牛被乌龟撞倒的笑话。 4.信息查询询问了“AI ping”的含义我为您详细解释了Humane AI Pin一款可穿戴设备以及其他可能的含义。 如果您想回顾具体细节或继续讨论某个话题请随时告诉我”。二、AI Ping智能聊天助手的核心支撑平台作为连接 GLM-4.7 模型与业务系统的核心桥梁AI Ping 平台凭借“评测 调用 智能路由”的一体化 MaaS 服务成为聊天助手稳定运行的关键保障解决了三大核心开发痛点。(一) 为什么选择 AI Ping 对接 GLM-4.7在开发初期传统对接 GLM-4.7 面临以下问题多供应商适配繁GLM-4.7 有 PPIO 派欧云、智谱官方、七牛云等多家供应商各供应商接口协议、调用方式不一致适配成本高服务稳定性差单一供应商在高峰期易出现延迟飙升、吞吐下降影响聊天体验成本管控难不同供应商定价策略不同手动切换无法实现“高峰稳、平峰省”的平衡。AI Ping 恰好破解这些痛点通过统一 API 对接所有 GLM-4.7 供应商依托智能路由动态选择最优供应商结合性能评测数据实现成本与体验的最优解。(二) AI Ping 对 GLM-4.7 的核心赋能1. 统一 API 简化集成AI Ping 将所有 GLM-4.7 供应商的接口标准化为兼容 OpenAI 的格式开发者只需接入 AI Ping 统一 API即可无缝调用不同供应商的 GLM-4.7 模型无需修改核心代码。例如本文中get_default_llm函数仅需配置 AI Ping 的base_url和api_key即可调用 GLM-4.7相比直接对接各供应商开发效率提升 90%。2. 智能路由保障稳定性AI Ping 实时监控各 GLM-4.7 供应商的吞吐量、延迟、可靠性如 P90 延迟、100% 可靠性在聊天助手高并发时段自动切换至吞吐高、延迟低的供应商如七牛云平峰时段切换至性价比更高的供应商全程无需人工干预确保对话响应延迟稳定在 P90 10s 内。3. 性能可视化与成本优化AI Ping 提供可视化数据看板可实时查看模型各供应商的核心指标三、技术实现流程GLM-4.7 LangChain Redis AI Ping(一) 前期准备AI Ping 注册与配置获取 API KEY登录 AI Ping 个人中心复制自动生成的 API 密钥模型配置在 AI Ping 平台选择 GLM-4.7 模型确认统一 API 调用地址https://www.aiping.cn/api/v1。(二) 核心配置文件# -*-coding:gbk-*-# 核心配置LLM_MODEL_NAME:strGLM-4.7# AI Ping 平台的 GLM-4.7 模型名LLM_BASE_URL:strhttps://www.aiping.cn/api/v1# AI Ping 统一 API 地址LLM_API_KEY:strQC-xxx# AI Ping 个人 API KEYLLM_TEMPERATURE:float0.7# 生成温度控制回答多样性LLM_STREAMING:boolTrue# 开启流式输出REDIS_HOST:str127.0.0.1# Redis 地址REDIS_PORT:int6379# Redis 端口REDIS_DB:int0# Redis 数据库REDIS_EXPIRE:int86400# 对话历史过期时间24小时(三) 核心代码解析1. LLM 模型初始化封装 GLM-4.7 模型调用逻辑基于 AI Ping 统一 API 实现兼容 LangChain 的 ChatOpenAI 接口# -*-coding:gbk-*-fromlangchain_openaiimportChatOpenAIfromcore.configimportsettingsdefget_default_llm():获取 GLM-4.7 模型实例对接 AI Ping 统一 APIreturnChatOpenAI(modelsettings.LLM_MODEL_NAME,# 指定 GLM-4.7 模型base_urlsettings.LLM_BASE_URL,# AI Ping 统一 API 地址api_keysettings.LLM_API_KEY,# AI Ping API KEYtemperaturesettings.LLM_TEMPERATURE,# 生成温度streamingsettings.LLM_STREAMING# 开启流式输出)2. 智能体创建基于 LangChain 构建聊天智能体集成工具调用与对话记忆能力# -*-coding:gbk-*-fromlangchain.agentsimportAgentExecutor,create_openai_functions_agentfromlangchain.promptsimportChatPromptTemplate,MessagesPlaceholderfromlangchain.toolsimportToolfromcore.llmimportget_default_llmfromtypingimportList,AsyncIteratorimportasynciofromtools.chat_toolsimportget_chat_tools# 自定义搜索工具defcreate_chat_agent(tools:List[Tool]):创建 GLM-4.7 聊天智能体# 系统提示词定义智能体行为准则system_prompt你是一个智能聊天助手。你可以: 1. 进行日常对话和专业问答回答需准确、友好 2. 当问题涉及实时信息如最新数据、热点时必须使用搜索工具 3. 结合对话历史摘要理解上下文避免重复提问 4. 基于 AI Ping 提供的 GLM-4.7 性能数据回答相关问题。# 构建提示词模板集成对话历史摘要promptChatPromptTemplate.from_messages([(system,system_prompt),(system,以下是之前的对话摘要: {summary}),# Redis 存储的对话摘要(human,{input}),# 用户输入MessagesPlaceholder(variable_nameagent_scratchpad),# 智能体思考过程])# 获取 GLM-4.7 模型实例llmget_default_llm()llm.streamingTrue# 创建 OpenAI 函数调用智能体agentcreate_openai_functions_agent(llm,tools,prompt)# 构建智能体执行器agent_executorAgentExecutor(agentagent,toolstools,# 绑定搜索等工具verboseTrue,# 开启详细日志handle_parsing_errorsTrue# 容错处理)returnagent_executor3. 对话处理与流式响应实现对话历史记忆Redis、流式输出逻辑适配 FastAPI 的 SSE 响应格式# -*-coding:gbk-*-asyncdefchat_with_agent(agent_executor:AgentExecutor,chat_service:ChatService,account_id:str,input_text:str)-AsyncIterator[str]:与智能体对话集成 Redis 对话记忆try:# 从 Redis 获取并生成对话历史摘要summaryawaitchat_service.generate_summary(account_id)# 调用 GLM-4.7 智能体流式获取响应asyncforchunkinagent_executor.astream({input:input_text,summary:summary}):ifoutputinchunk:responsechunk[output]# 将对话记录存储到 Redis用户输入助手回复chat_service.save_chat_messages(account_id,input_text,response)# 逐字流式返回模拟打字效果fortokeninresponse:yieldtokenawaitasyncio.sleep(0.01)exceptExceptionase:yieldf抱歉处理您的请求时出现错误:{str(e)}asyncdefgenerate_stream_response(chat_service:ChatService,account_id:str,message:str)-AsyncGenerator[str,None]:封装流式响应适配 FastAPI SSE 格式# 创建聊天智能体绑定搜索工具agentcreate_chat_agent(get_chat_tools())current_chunk# 逐token接收响应按标点/长度分片发送asyncfortokeninchat_with_agent(agent,chat_service,account_id,message):current_chunktoken# 分片规则遇到标点或累计50字符时发送iftokenin。、,.!?;: orlen(current_chunk)50:# 封装JSON响应格式responseJsonData.stream_data(datacurrent_chunk)yieldfdata:{response.model_dump_json()}\n\ncurrent_chunkawaitasyncio.sleep(0.01)# 发送剩余内容ifcurrent_chunk:responseJsonData.stream_data(datacurrent_chunk)yieldfdata:{response.model_dump_json()}\n\n# 发送结束标记yielddata: [DONE]\n\n(四) 运行与部署安装依赖pipinstalllangchain langchain-openai fastapi uvicorn redis python-multipart启动服务uvicorn main:app --host0.0.0.0 --port8000--reload四、总结与扩展(一) 核心价值开发效率提升AI Ping 统一 API 让 GLM-4.7 多供应商集成成本降低 90%无需关注底层接口差异体验稳定性保障智能路由动态切换供应商确保流式对话响应延迟稳定P90 控制在 10s 内对话体验优化Redis LangChain 实现长对话记忆解决传统聊天机器人“上下文丢失”问题成本可控基于 AI Ping 性能数据动态选择供应商平峰期成本降低 30% 以上。(二) 扩展方向多模型切换基于 AI Ping 统一 API仅需修改LLM_MODEL_NAME即可切换至 MiniMax M2.1、Kimi-K2-Thinking 等模型实现多模型对比工具扩展集成更多工具如文档解析、代码生成基于 LangChain 扩展智能体能力个性化定制基于 Redis 存储用户偏好实现个性化回答多端适配对接 Web、APP、小程序通过 FastAPI 流式接口实现全端一致的交互体验。五、参考资料AI Ping 官网https://www.aiping.cnAI Ping 开发者文档https://www.aiping.cn/docs/productLangChain 官方文档https://python.langchain.com/docs/