腾讯混元开源 0.5B、1.8B、4B、7B 模型


腾讯混元宣布推出四款开源的小尺寸模型,参数分别为 0.5B、1.8B、4B、7B,消费级显卡即可运行,适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,且支持垂直领域低成本微调。

根据介绍,新开源的4 个模型属于融合推理模型,具备推理速度快、性价比高的特点,用户可根据使用场景灵活选择模型思考模式——快思考模式提供简洁、高效的输出;而慢思考涉及解决复杂问题,具备更全面的推理步骤。

测评结果:

这四个模型的亮点在于agent和长文能力,跟此前开源的Hunyuan-A13B模型一样,技术上通过精心的数据构建和强化学习奖励信号设计,提升了模型在任务规划、工具调用和复杂决策以及反思等agent能力上的表现,让模型实际应用中可以轻松胜任深度搜索、excel操作、旅行攻略规划等任务。

此外,模型原生长上下文窗口达到了 256k,意味着模型可以一次性记住并处理相当于40万中文汉字或50万英文单词的超长内容,相当于一口气读完3本《哈利波特》小说 ,并且能记住所有人物关系、剧情细节,还能根据这些内容讨论后续故事发展。

部署上,四个模型均只需单卡即可部署,部分PC、手机、平板等设备可直接接入。并且,模型具有较强的开放性,主流推理框架(例如,SGLang,vLLM and TensorRT-LLM)和多种量化格式均能够支持。

应用层面,四款小尺寸模型都能够满足从端侧到云端、从通用到专业的多样化需求,并且已经在腾讯多个业务中应用,可用性和实用性经过了实践的检验,是真正实用的模型。

例如,依托模型原生的超长上下文能力,腾讯会议AI小助手、微信读书AI问书AI助手均实现对完整会议内容、整本书籍的一次性理解和处理。

在端侧应用上,腾讯手机管家利用小尺寸模型提升垃圾短信识别准确率,实现毫秒级拦截,隐私零上传;腾讯智能座舱助手通过双模型协作架构解决车载环境痛点,充分发挥模型低功耗、高效推理的特性。

在高并发场景中,搜狗输入法基于模型的多模态联合训练机制使嘈杂环境下提升识别准确率;腾讯地图采用多模型架构,利用意图分类和推理能力提升了用户交互体验;微信输入法「问AI」基于模型实现输入框与 AI 即问即答的无缝衔接。

在需求各异、约束严苛的垂直行业应用中,金融AI助手通过Prompt优化和少量数据微调实现95%+意图识别准确率,展现出金融级的高可靠性;游戏翻译和QQ飞车手游NPC充分利用模型的理解能力在多语言理解能力、方言翻译和智能对话方面有突出表现,这些能力在专业客服、内容出海甚至电商直播等场景有巨大应用潜力。


相關推薦

2025-05-15

Qwen3-32B、Qwen3-72B等多种参数规模的模型,其中部分模型已开源。 报告指出,Qwen3的预训练分为三个阶段: 通用阶段(S1)在超过30万亿token上训练,序列长度4096,构建通用知识基础; 推理阶段(S2)在约5万亿更高质量的STEM

2025-06-28

腾讯宣布开源混元大模型家族的新成员——混元-A13B模型。该模型采用基于专家混合(MoE)架构,总参数规模达800亿,激活参数为130亿。 公告称,该模型在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销。对个

2025-08-05

)、捏Ta(1个)、磐石(3个)、上海交通大学(1个)、腾讯(1个)、上海人工智能实验室(1个)、复旦大学(1个)。 1、阿里(9个):编程模型Qwen3-Coder-30B-A3B-Instruct、Qwen3-Coder-480B-A35B-Instruct,深度思考模型Qwen3-30B-A3B-Thinking-

2025-08-02

:超能聊,跑得快 Qwen3-8B / Qwen3-4B / Qwen3-0.6B 国产开源的 Qwen3 系列,从轻量级到中型参数都有,支持「思考模式」与「对话模式」自由切换,还能写代码、讲英文、做推理。模型权重与 API 已全面开放,商用也不用担心授

2023-08-05

根据多家媒体的报道,腾讯自研的“腾讯混元大模型”已经进入应用内测阶段。腾讯员工近期收到了内部邮件邀请,可以通过网页或者小程序体验混元大模型,腾讯内部多个业务也已经接入混元大模型进行测试。 腾讯表示,从

2023-10-18

智能宣布已完成A1轮战略融资,融资金额3亿美元,阿里、腾讯、小米等科技巨头及多家顶级投资机构均参与了本轮融资。加上天使轮的5000万美元,百川智能的融资金额已达3.5亿美元。 百川智能成立于2023年4月10日,由前搜狗公

2023-09-27

产模型:通义千问,文心一言,讯飞星火,商汤日日新,腾讯混元大语言模型 开源大模型:Llama2 ,ChatGLM2 ,AquilaChat 7B ,Bloomz 7B 等,后续还将开放更多 文生图、图生图、超分辨率、黑白图片上色等功能,集成 Stable Diffusion

2025-03-29

腾讯混元日前宣布正式开源基于Hunyuan 3D 2.0技术框架的5款三维生成模型,进一步丰富 3D AIGC 社区。 本次开源的Turbo加速系列、多视图推理模块及轻量级mini模型,均基于Hunyuan 3D 2.0模型,组成了包含6大模型的Hunyuan 3D 2.0 家族。

2025-07-12

MiniCPM 端侧客户端已正式发布。 全面支持 Intel Core Ultra 系列处理器本地部署,低延迟、高效率、隐私更安全。 基于 OpenVINO 推理框架深度优化,推理速度至高可达每秒 80 tokens! 专为开发者、研究人员与 AI 爱好者打造的本

2025-07-08

值得注意的是,DiffuCoder 的架构和生成工具部分借鉴了开源项目 Dream,用于支持 HuggingFace 平台的部署发布。

2025-04-30

模型:包括Qwen3-32B、14B、8B、4B、1.7B、0.6B,均为Apache 2.0开源协议。 2. 上下文长度:密集模型中,0.6B、1.7B、4B为32K,8B及以上为128K;MoE模型均为128K。 模力方舟上的昇腾算力已为您准备好首批0.6B、8B、30B三款模型,其中 30B 为

2025-05-08

360集团宣布对其自研的7B参数模型360Zhinao3-7B进行了开源升级,可免费商用。 公告称,模型各项能力得到全面提升,在多个benchmark上表现优秀。本次开源推出的360Zhinao3-7B-O1.5模型,不止是数学和科学的单点模型,在通用能力上表

2023-11-10

vivo 已在 Hugging Face 上正式开源蓝心大模型 BlueLM-7B。 地址:https://huggingface.co/vivo-ai BlueLM-7B 开源大模型包括 7B 基础模型和 7B 对话模型,vivo 还开源了支持 32K 的长文本基础模型和对话模型。 据介绍,BlueLM 采用

2023-06-10

其 RedPajama 7B 已完成所有训练,并在 Apache 2.0 许可下全部开源。 RedPajama 是一个开源可商用大模型项目,由 TOGETHER 联合蒙特利尔大学的 AAI CERC 实验室、EleutherAI 和 LAION 共同发起。目前包括一个基于 LLaMA 论文的 RedPajama 基础数据