RWKV7-G1 1.5B 发布!全球语言推理模型,特别适合端侧手机运行


2025 年 4 月 29 日,RWKV 基金会开源了 RWKV7-G1 1.5B 推理模型(Reasoning Model)。

RWKV7-G1 1.5B 具备其它同尺寸模型不具备的推理能力任务能力 ,同时还支持现实世界 100+ 种语言。在实际测试中,RWKV7-G1 1.5B 模型的推理逻辑性较强,能够完成有难度的多语言、数学和代码任务

RWKV7-G1 1.5B 推理模型基于 World v3.5 数据集训练,包含更多小说、网页、数学、代码和 reasoning 数据,总数据为 5.16T tokens。

快速体验 G1 1.5B :https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace

我们也开源发布了 RWKV 模型端聊天 APP,方便大家体验 RWKV-7 模型。APP 下载链接在本文靠后位置。

模型客观指标评测

英语和多语言能力

RWKV7-G1 1.5B 的英语和多语言能力显著强于同规模的开源模型包括同期发布的 Qwen3-1.7B-Base

1B5-Models-Eval

此外,RWKV7-G1 1.5B 的 MMLU 准确度为 48.2%,比 RWKV-7 World 1.5B 的 44.8% 有继续提升。

无法作弊的评测

Uncheatable Eval 是"无法作弊的评测",它使用最新的论文和新闻文章等实时数据,评估开源大语言模型的真实建模能力和泛化能力。

G1 1.5B 的 Uncheatable Eval 综合得分在同参数规模的开源模型中处于领先地位,超越 Qwen2.5-1.5B,仅次于参数更多的 Qwen3-1.7B:

1B5-Uncheatable-eval

模型使用体验实测

多语言能力

RWKV7-G1 1.5B 支持全球 100 多种自然语言,比同参数量的 Transformer 模型更强。

下面是 G1 1.5B 把中文翻译为多国语言的推理过程和翻译结果,翻译结果完全准确:

multilang-translation

代码能力

G1 1.5B 拥有基础的代码能力,更大的 G1 2.9B/7B 模型的代码能力会显著更强。

G1 1.5B 刷 Leetcode 题目:

code

code-1

数学题目

math-1

math

日常对话

chat-life

chat-work

chat-work-1

general-chat

小说能力

G1 1.5B 直接续写小说,有较好的网感和文风:

novel

模型试用

我们提供了多个 RWKV-7 模型的在线 demo,也提供移动端聊天 APP。

【推荐】用在线 demo(聊天模式)

为了方便社区体验 RWKV-G1 模型,我们提供了聊天模式的在线 demo。

  • Hugging Face:https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace
  • 魔搭 demo:https://modelscope.cn/studios/RWKV-Red-Team/RWKV-LatestSpace/summary

可在此体验已完成训练的 RWKV7-G1 0.1B、0.4B 和 1.5B 模型,也可以切换到其他正在训练中的 G1 模型,如 G1 2.9B。

chat-mode-demo

这个精美的 RWKV 对话界面由 RWKV 社区成员 @Leon 开发,并在 GitHub 仓库 web-rwkv-realweb 中开源。

使用在线 demo(续写模式)

可以在官方 Demo 中试用 RWKV7-G1 1.5B 模型:

  • **Hugging Face Gradio Demo:**https://huggingface.co/spaces/BlinkDL/RWKV-Gradio-2

RWKV7-G1 的整体 prompt 格式与 RWKV-7-World 模型类似,可选使用 <think> 标签开启 reasoning 功能:

User: 我可以抽干太平洋的水然后下去抓鱼吗?

Assistant: <think>

使用 RWKV 端侧聊天 APP

我们也开发了处于内测阶段的 RWKV 端侧聊天 APP(Android 和 iOS 版本),可在下列地址下载 APP:

  • Android : https://www.pgyer.com/rwkvchat
  • iOS (TestFlight) : https://testflight.apple.com/join/DaMqCNKh

贯彻开源开放的宗旨,RWKV 端侧聊天 APP 也已开源 ,在 GitHub rwkv_mobile_flutter 仓库中可以看到项目代码。

测试数据显示:经过 NPU 优化后,RWKV-7 1.5B 模型在高通 8Gen3 手机芯片实现了 62 token/s 的推理速度,G1 0.1B 模型的推理速度则高达 170 token/s

模型下载

下载已完成训练的 RWKV7-G1 0.1B/0.4B/1.5B 模型:

  • Hugging Face:https://huggingface.co/BlinkDL/rwkv7-g1/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/rwkv7-g1/files
  • WiseModel:https://wisemodel.cn/models/rwkv4fun/RWKV-7-G1/file

下载其他训练中的 RWKV7-G1 模型(G1 2.9B):

  • Hugging Face:https://huggingface.co/BlinkDL/temp-latest-training-models/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/temp-latest-training-models/files

G1 模型发布计划

当前已发布 G1 0.1B/0.4B/1.5B 模型,正在训练 G1 2.9B,具体发布计划如下:

模型 发布计划
G1 0.1B 3 月 8 日(已发布)
G1 0.4B 3 月 25 日(已发布)
G1 1.5B 4 月 29 日(已发布)
G1 2.9B 5 月 中旬

我们也在同时准备更大更优的数据集 World v3.7。World v3.7 数据集的准备工作即将完成,届时将开始训练 RWKV7-G1 7B 模型。

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入 RWKV 论坛、QQ 频道和 QQ 群聊,一起探讨 RWKV 模型。

  • 📖 RWKV 中文文档:https://www.rwkv.cn
  • 💬 RWKV 论坛:https://community.rwkv.cn/
  • 🐧 QQ 频道:https://pd.qq.com/s/9n21eravc
  • 📺 BiliBili 视频教程:https://space.bilibili.com/3546689096910933

欢迎大家基于 RWKV-7 进行创业、科研,我们也会为基于 RWKV 的项目提供技术支持。

如果您的团队正在基于 RWKV 创业或开展研究,请联系我们!(在"RWKV元始智能"微信公众号留言您的联系方式,或发送邮件到"[email protected]"。)


相關推薦

2025-05-22

2025 年 5 月 20 日,RWKV 基金会开源了 RWKV7-G1 2.9B 推理模型(Reasoning Model)。 RWKV7-G1 2.9B 具备其它同尺寸模型不具备的推理能力 和任务能力 ,同时还支持现实世界 100+ 种语言。在实际测试中,RWKV7-G1 2.9B 模型能够完成有难度的多

2025-03-29

mer(RWKV 时序预测) RWKV 模型新闻动态 新模型:RWKV7-G1 0.1B/0.4B 更大的 RWKV7-G1 正在训练中 RWKV 社区活动 RWKV 团队参加 NVDIA GTC 2025 RWKV 社区项目动态 RWKV 端侧 APP 发布并开源 新项目:WorldRWKV(RWKV 多模

2025-07-30

大幅降低使用门槛,便捷不同用户使用。 RWKV Chat 内置 RWKV7-G1 推理模型,无需联网即可实现推理、深度对话与文本续写。其中的 RWKV7-G1 2.9B 模型在高通手机平台的速度可达 30 token/s,且由于 RWKV 架构无需 KV cache,在超长推理后

2025-08-01

事! 7 月动态省流版(TL;DR) RWKV 模型新闻动态 RWKV7-G0 7.2B 发布,这可能是迄今为止人类训练过的最强纯 RNN 语言模型 RWKV7-G1a 0.1B 发布,增强数据后有明显提升 RWKV7a-G1b 0.1B 正在训练,加入了 DeepEmbed 技术,总参数 0.9B

2025-06-21

Ollama 最新版本已支持 RWKV7-G1 和 RWKV-7-World 系列模型。 3 月初,随着 RWKV 社区成员 @MollySophia 的 PR 被合并,llama.cpp 正式支持 RWKV-7 模型。Ollama 近期更新了最新版 llama.cpp,因此同步支持 RWKV-7 架构和对应模型。 Ollama 官方模型仓库

2025-07-26

2025 年 7 月 22 日, RWKV7-G0 7.2B 推理模型(Reasoning Model)正式开源发布,它很可能是迄今为止人类训练过的最强纯 RNN 语言模型。 RWKV7-G0 7.2B 是在 RWKV6-World-V3-7.6B 的基础上训练 2T tokens 的纯预训练模型,但在预训练加入了大量指令/

2025-04-26

与调用。 豆包 1.5・深度思考模型是该公司于日前全新发布的一个模型,采用 MoE 架构,总参数 200B,激活参数为 20B,低于业界同类模型参数规模的 50%,具备显著的推理成本优势。 据称在数学、代码、科学等专业领域推理任

2025-08-05

域低成本微调。 根据介绍,新开源的4 个模型属于融合推理模型,具备推理速度快、性价比高的特点,用户可根据使用场景灵活选择模型思考模式——快思考模式提供简洁、高效的输出;而慢思考涉及解决复杂问题,具备更全

2025-05-08

方向,而且模型的训练成本大幅降低,且也不会增加模型推理成本。 在数据筛选方面,项目团队加大了筛选力度,离线训练了多种数据筛选模型,对不同种类的数据进行分档打分,显著提升了数据质量。其次还进一步加大了数

2025-08-02

好了免费的相关模型,全部 0 元接入、不限次数。 通用语言模型:超能聊,跑得快 Qwen3-8B / Qwen3-4B / Qwen3-0.6B 国产开源的 Qwen3 系列,从轻量级到中型参数都有,支持「思考模式」与「对话模式」自由切换,还能写代码、

2025-08-05

Hugging Face发布了中国AI社区7月高亮时刻,回溯这一个月来令人眼花缭乱的开源浪潮。 包括: ✨ 另一个“DeepSeek时刻”——Kimi K2 ✨ Qwen完全矩阵化- Instruct / Thinking / Coder模型跨越30B - 480B参数规模 ✨ 多模态浪潮: GLM-4.1V-T

2024-09-27

Meta 今天发布了 Llama 3.2 系列开源模型,其中包括小型和中型视觉 LLMs(11B 和 90B),以及适合边缘和移动设备的小型纯文本模型(1B 和 3B),包括预训练和指令调整版本。 LLaMA 3.2 支持同时处理文本、图像和视频,能够理解并生

2025-07-12

MiniCPM 端侧客户端已正式发布。 全面支持 Intel Core Ultra 系列处理器本地部署,低延迟、高效率、隐私更安全。 基于 OpenVINO 推理框架深度优化,推理速度至高可达每秒 80 tokens! 专为开发者、研究人员与 AI 爱好者打造的本

2025-05-14

苹果公司联合复旦大学,推出 StreamBridge 端侧视频大语言模型(Video-LLMs)框架,助力 AI 理解直播流视频。该框架通过内存缓冲区和轮次衰减压缩策略,支持长上下文交互。 该框架还引入了一个轻量化的独立激活模型,无缝集