Xorbits Inference(Xinference)是一个 性能强大且功能全面的 分布式 推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。 Xinference 的功能和亮点有:
-
- 🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
-
- ⚡️ 前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
-
- 🖥 异构硬件,快如闪电:通过 ggml,同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
-
- ⚙️ 接口调用,灵活多样:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
-
- 🌐 集群计算,分布协同:支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
-
- 🔌 开放生态,无缝对接:与流行的三方库无缝对接,包括 LangChain, LlamaIndex, Dify,以及 Chatbox。
🎉 Xinference v1.5.1 发布!
🆕 重点亮点
- 🧠 支持 Qwen3 / Qwen3-MOE 大模型家族 支持 Qwen3 正式版,以及 Qwen3-MOE 多专家模型!
- 🎬 支持 Wan 2.1 文生视频模型 更强的文生视频能力,为 AI 视频生成打开新可能!
- ⚙️ vLLM 支持 GGUFv2 格式 兼容范围更广,模型加载更灵活!
🧪 社区版
📦 更新指南
- 📥 pip:pip install 'xinference==1.5.1'
- 🐳 Docker:拉取最新版本即可,也可以直接在镜像内用 pip 更新。
📝 更新日志
🆕 新模型支持
- 🧠 Qwen3 / Qwen3-MOE
- 🎬 Wan 2.1(文生视频)
- 🖼️ Ovis2(多模态视觉模型)
⚙️ 功能增强
- 🧠 UI 支持高亮输入框内容,优化用户体验
- 📊 UI 显示 model_ability,更直观了解模型能力
- 🧩 vLLM 引擎支持 GGUFv2 模型格式
- ⚙️ GLM4-0414 模型支持 MLX 和 GGUF 格式
- 🔧 支持为 SSE 设置 Ping 的时间,防止意外的 :ping: chunk 导致客户端错误
- 🧠 PyTorch 格式模型不再内置 4-bit / 8-bit 量化选项,改为支持更灵活的 bitsandbytes 动态量化,未来将扩展支持更多格式
- 🧩 所有引擎支持 chat_template_kwargs 参数
- 🔊 音频模型能力统一展示
🧹 模型清理
- 🗑️ 清理了一批已过时的模型,保持模型库高质量、常用可用
🐛 问题修复
- 💬 修复 sgLang 聊天失败的问题
- 🛠️ 修复 UI 在未安装引擎时不展示可选项的问题
- 🧹 修复模型加载失败时未能清理资源的问题
📚 文档更新
- 🧾 troubleshooting.rst 中新增关于 numpy 导致启动报错的排查说明
🏢 企业版
- 🔐 部署支持限制端口范围 / 使用单端口,可部署于更严格的防火墙与隔离网络中
- 🔀 PD 分离支持不同个数的 P 和 D 节点,资源利用更灵活
我们感谢每一位参与的社区伙伴对 Xinference 的帮助和支持,也欢迎更多使用者和开发者参与体验和使用 Xinference。
欢迎您在 https://github.com/xorbitsai/inference 给我们一个 星标,这样你就可以在 GitHub 上及时收到每个新版本的通知。