RWKV7-G1 1.5B 发布!全球语言推理模型,特别适合端侧手机运行


2025 年 4 月 29 日,RWKV 基金会开源了 RWKV7-G1 1.5B 推理模型(Reasoning Model)。

RWKV7-G1 1.5B 具备其它同尺寸模型不具备的推理能力任务能力 ,同时还支持现实世界 100+ 种语言。在实际测试中,RWKV7-G1 1.5B 模型的推理逻辑性较强,能够完成有难度的多语言、数学和代码任务

RWKV7-G1 1.5B 推理模型基于 World v3.5 数据集训练,包含更多小说、网页、数学、代码和 reasoning 数据,总数据为 5.16T tokens。

快速体验 G1 1.5B :https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace

我们也开源发布了 RWKV 模型端聊天 APP,方便大家体验 RWKV-7 模型。APP 下载链接在本文靠后位置。

模型客观指标评测

英语和多语言能力

RWKV7-G1 1.5B 的英语和多语言能力显著强于同规模的开源模型包括同期发布的 Qwen3-1.7B-Base

1B5-Models-Eval

此外,RWKV7-G1 1.5B 的 MMLU 准确度为 48.2%,比 RWKV-7 World 1.5B 的 44.8% 有继续提升。

无法作弊的评测

Uncheatable Eval 是"无法作弊的评测",它使用最新的论文和新闻文章等实时数据,评估开源大语言模型的真实建模能力和泛化能力。

G1 1.5B 的 Uncheatable Eval 综合得分在同参数规模的开源模型中处于领先地位,超越 Qwen2.5-1.5B,仅次于参数更多的 Qwen3-1.7B:

1B5-Uncheatable-eval

模型使用体验实测

多语言能力

RWKV7-G1 1.5B 支持全球 100 多种自然语言,比同参数量的 Transformer 模型更强。

下面是 G1 1.5B 把中文翻译为多国语言的推理过程和翻译结果,翻译结果完全准确:

multilang-translation

代码能力

G1 1.5B 拥有基础的代码能力,更大的 G1 2.9B/7B 模型的代码能力会显著更强。

G1 1.5B 刷 Leetcode 题目:

code

code-1

数学题目

math-1

math

日常对话

chat-life

chat-work

chat-work-1

general-chat

小说能力

G1 1.5B 直接续写小说,有较好的网感和文风:

novel

模型试用

我们提供了多个 RWKV-7 模型的在线 demo,也提供移动端聊天 APP。

【推荐】用在线 demo(聊天模式)

为了方便社区体验 RWKV-G1 模型,我们提供了聊天模式的在线 demo。

  • Hugging Face:https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace
  • 魔搭 demo:https://modelscope.cn/studios/RWKV-Red-Team/RWKV-LatestSpace/summary

可在此体验已完成训练的 RWKV7-G1 0.1B、0.4B 和 1.5B 模型,也可以切换到其他正在训练中的 G1 模型,如 G1 2.9B。

chat-mode-demo

这个精美的 RWKV 对话界面由 RWKV 社区成员 @Leon 开发,并在 GitHub 仓库 web-rwkv-realweb 中开源。

使用在线 demo(续写模式)

可以在官方 Demo 中试用 RWKV7-G1 1.5B 模型:

  • **Hugging Face Gradio Demo:**https://huggingface.co/spaces/BlinkDL/RWKV-Gradio-2

RWKV7-G1 的整体 prompt 格式与 RWKV-7-World 模型类似,可选使用 <think> 标签开启 reasoning 功能:

User: 我可以抽干太平洋的水然后下去抓鱼吗?

Assistant: <think>

使用 RWKV 端侧聊天 APP

我们也开发了处于内测阶段的 RWKV 端侧聊天 APP(Android 和 iOS 版本),可在下列地址下载 APP:

  • Android : https://www.pgyer.com/rwkvchat
  • iOS (TestFlight) : https://testflight.apple.com/join/DaMqCNKh

贯彻开源开放的宗旨,RWKV 端侧聊天 APP 也已开源 ,在 GitHub rwkv_mobile_flutter 仓库中可以看到项目代码。

测试数据显示:经过 NPU 优化后,RWKV-7 1.5B 模型在高通 8Gen3 手机芯片实现了 62 token/s 的推理速度,G1 0.1B 模型的推理速度则高达 170 token/s

模型下载

下载已完成训练的 RWKV7-G1 0.1B/0.4B/1.5B 模型:

  • Hugging Face:https://huggingface.co/BlinkDL/rwkv7-g1/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/rwkv7-g1/files
  • WiseModel:https://wisemodel.cn/models/rwkv4fun/RWKV-7-G1/file

下载其他训练中的 RWKV7-G1 模型(G1 2.9B):

  • Hugging Face:https://huggingface.co/BlinkDL/temp-latest-training-models/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/temp-latest-training-models/files

G1 模型发布计划

当前已发布 G1 0.1B/0.4B/1.5B 模型,正在训练 G1 2.9B,具体发布计划如下:

模型 发布计划
G1 0.1B 3 月 8 日(已发布)
G1 0.4B 3 月 25 日(已发布)
G1 1.5B 4 月 29 日(已发布)
G1 2.9B 5 月 中旬

我们也在同时准备更大更优的数据集 World v3.7。World v3.7 数据集的准备工作即将完成,届时将开始训练 RWKV7-G1 7B 模型。

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入 RWKV 论坛、QQ 频道和 QQ 群聊,一起探讨 RWKV 模型。

  • 📖 RWKV 中文文档:https://www.rwkv.cn
  • 💬 RWKV 论坛:https://community.rwkv.cn/
  • 🐧 QQ 频道:https://pd.qq.com/s/9n21eravc
  • 📺 BiliBili 视频教程:https://space.bilibili.com/3546689096910933

欢迎大家基于 RWKV-7 进行创业、科研,我们也会为基于 RWKV 的项目提供技术支持。

如果您的团队正在基于 RWKV 创业或开展研究,请联系我们!(在"RWKV元始智能"微信公众号留言您的联系方式,或发送邮件到"[email protected]"。)


相關推薦

2025-05-22

2025 年 5 月 20 日,RWKV 基金会开源了 RWKV7-G1 2.9B 推理模型(Reasoning Model)。 RWKV7-G1 2.9B 具备其它同尺寸模型不具备的推理能力 和任务能力 ,同时还支持现实世界 100+ 种语言。在实际测试中,RWKV7-G1 2.9B 模型能够完成有难度的多

2025-03-29

mer(RWKV 时序预测) RWKV 模型新闻动态 新模型:RWKV7-G1 0.1B/0.4B 更大的 RWKV7-G1 正在训练中 RWKV 社区活动 RWKV 团队参加 NVDIA GTC 2025 RWKV 社区项目动态 RWKV 端侧 APP 发布并开源 新项目:WorldRWKV(RWKV 多模

2025-04-26

与调用。 豆包 1.5・深度思考模型是该公司于日前全新发布的一个模型,采用 MoE 架构,总参数 200B,激活参数为 20B,低于业界同类模型参数规模的 50%,具备显著的推理成本优势。 据称在数学、代码、科学等专业领域推理任

2025-05-08

方向,而且模型的训练成本大幅降低,且也不会增加模型推理成本。 在数据筛选方面,项目团队加大了筛选力度,离线训练了多种数据筛选模型,对不同种类的数据进行分档打分,显著提升了数据质量。其次还进一步加大了数

2024-09-27

Meta 今天发布了 Llama 3.2 系列开源模型,其中包括小型和中型视觉 LLMs(11B 和 90B),以及适合边缘和移动设备的小型纯文本模型(1B 和 3B),包括预训练和指令调整版本。 LLaMA 3.2 支持同时处理文本、图像和视频,能够理解并生

2025-06-09

面壁智能正式发布并开源了「面壁小钢炮」端侧系列最新力作——MiniCPM 4.0 模型,实现了端侧可落地的系统级软硬件稀疏化的高效创新。英特尔与面壁智能从模型开发阶段就紧密合作,实现了长短文本多重推理效率的提升,端侧

2025-05-14

苹果公司联合复旦大学,推出 StreamBridge 端侧视频大语言模型(Video-LLMs)框架,助力 AI 理解直播流视频。该框架通过内存缓冲区和轮次衰减压缩策略,支持长上下文交互。 该框架还引入了一个轻量化的独立激活模型,无缝集

2025-06-10

如 shortconv)。 RWKV-7 的实践验证: 模型规模:RWKV7-G1(2.9B/1.5B)是训练 token 最多的纯 RNN 架构模型(10+ T tokens)。 数据压缩能力:在未知数据(2025年4月)的字节压缩测试中表现优异(见 UncheatableEval)。

2025-06-11

最佳实践,包括遵循广泛采用的robots.txt协议,允许网页发布者选择性地退出其内容被用于训练Apple的生成基础模型。网页发布者可以对Applebot可以查看的页面以及这些页面如何被使用进行精细控制,同时这些页面仍会出现在Siri和

2025-03-27

千问从除夕夜开源全新的视觉模型Qwen2.5-VL,再到本月初发布并开源了全新推理模型QwQ-32B,在开源当日就登顶全球主流AI开源社区Hugging Face的趋势榜。 DeepSeek(深度求索)达成过“开源周”,其在2月末连续五天发布五个代码库,并

2025-06-04

举措不仅标志着字节跳动在AI领域的又一重大突破,更为全球开发者提供了一个强大的工具,以前所未有的方式与计算机进行交互。 ​​CUA:从对话到行动的跨越​​ 传统的AI助手往往停留在“对话式人工智能”的层面,即通

2024-07-30

家使用 RWKV-6 替代 Mamba 进行科研。截至 7 月 29 日,来自全球各地的科研团队已经陆续发表了 7 篇基于 RWKV 架构、在各个领域进行深入研究的论文。 新的 RWKV 学术研究主要聚焦于具身智能、图像处理、模型架构三个方面。 机器

2024-08-01

,这表明模型设计的效率有时比规模更重要。 从国家到全球焦点:美国以外的法学硕士,例如 Mistral 的 Mistral-large 和阿里巴巴的 qwen2- 72b -instruct,是该领域的新兴参与者,并且越来越受欢迎,代表了全球创建有效语言

2024-08-01

! 省流版本: RWKV 官方公告 RWKV-6-World 14B 模型已发布 RWKV 中文官网 rwkv.cn 正式上线 RWKV 社区新项目 RWKV RAG:一键式 RWKV RAG 本地搭建项目,实现了最小封装和极高的扩展性 RWKV-Keras:RWKV 的 Keras 实现,支持 RWKV 模