RWKV7-G1 1.5B 发布!全球语言推理模型,特别适合端侧手机运行


2025 年 4 月 29 日,RWKV 基金会开源了 RWKV7-G1 1.5B 推理模型(Reasoning Model)。

RWKV7-G1 1.5B 具备其它同尺寸模型不具备的推理能力任务能力 ,同时还支持现实世界 100+ 种语言。在实际测试中,RWKV7-G1 1.5B 模型的推理逻辑性较强,能够完成有难度的多语言、数学和代码任务

RWKV7-G1 1.5B 推理模型基于 World v3.5 数据集训练,包含更多小说、网页、数学、代码和 reasoning 数据,总数据为 5.16T tokens。

快速体验 G1 1.5B :https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace

我们也开源发布了 RWKV 模型端聊天 APP,方便大家体验 RWKV-7 模型。APP 下载链接在本文靠后位置。

模型客观指标评测

英语和多语言能力

RWKV7-G1 1.5B 的英语和多语言能力显著强于同规模的开源模型包括同期发布的 Qwen3-1.7B-Base

1B5-Models-Eval

此外,RWKV7-G1 1.5B 的 MMLU 准确度为 48.2%,比 RWKV-7 World 1.5B 的 44.8% 有继续提升。

无法作弊的评测

Uncheatable Eval 是"无法作弊的评测",它使用最新的论文和新闻文章等实时数据,评估开源大语言模型的真实建模能力和泛化能力。

G1 1.5B 的 Uncheatable Eval 综合得分在同参数规模的开源模型中处于领先地位,超越 Qwen2.5-1.5B,仅次于参数更多的 Qwen3-1.7B:

1B5-Uncheatable-eval

模型使用体验实测

多语言能力

RWKV7-G1 1.5B 支持全球 100 多种自然语言,比同参数量的 Transformer 模型更强。

下面是 G1 1.5B 把中文翻译为多国语言的推理过程和翻译结果,翻译结果完全准确:

multilang-translation

代码能力

G1 1.5B 拥有基础的代码能力,更大的 G1 2.9B/7B 模型的代码能力会显著更强。

G1 1.5B 刷 Leetcode 题目:

code

code-1

数学题目

math-1

math

日常对话

chat-life

chat-work

chat-work-1

general-chat

小说能力

G1 1.5B 直接续写小说,有较好的网感和文风:

novel

模型试用

我们提供了多个 RWKV-7 模型的在线 demo,也提供移动端聊天 APP。

【推荐】用在线 demo(聊天模式)

为了方便社区体验 RWKV-G1 模型,我们提供了聊天模式的在线 demo。

  • Hugging Face:https://huggingface.co/spaces/RWKV-Red-Team/RWKV-LatestSpace
  • 魔搭 demo:https://modelscope.cn/studios/RWKV-Red-Team/RWKV-LatestSpace/summary

可在此体验已完成训练的 RWKV7-G1 0.1B、0.4B 和 1.5B 模型,也可以切换到其他正在训练中的 G1 模型,如 G1 2.9B。

chat-mode-demo

这个精美的 RWKV 对话界面由 RWKV 社区成员 @Leon 开发,并在 GitHub 仓库 web-rwkv-realweb 中开源。

使用在线 demo(续写模式)

可以在官方 Demo 中试用 RWKV7-G1 1.5B 模型:

  • **Hugging Face Gradio Demo:**https://huggingface.co/spaces/BlinkDL/RWKV-Gradio-2

RWKV7-G1 的整体 prompt 格式与 RWKV-7-World 模型类似,可选使用 <think> 标签开启 reasoning 功能:

User: 我可以抽干太平洋的水然后下去抓鱼吗?

Assistant: <think>

使用 RWKV 端侧聊天 APP

我们也开发了处于内测阶段的 RWKV 端侧聊天 APP(Android 和 iOS 版本),可在下列地址下载 APP:

  • Android : https://www.pgyer.com/rwkvchat
  • iOS (TestFlight) : https://testflight.apple.com/join/DaMqCNKh

贯彻开源开放的宗旨,RWKV 端侧聊天 APP 也已开源 ,在 GitHub rwkv_mobile_flutter 仓库中可以看到项目代码。

测试数据显示:经过 NPU 优化后,RWKV-7 1.5B 模型在高通 8Gen3 手机芯片实现了 62 token/s 的推理速度,G1 0.1B 模型的推理速度则高达 170 token/s

模型下载

下载已完成训练的 RWKV7-G1 0.1B/0.4B/1.5B 模型:

  • Hugging Face:https://huggingface.co/BlinkDL/rwkv7-g1/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/rwkv7-g1/files
  • WiseModel:https://wisemodel.cn/models/rwkv4fun/RWKV-7-G1/file

下载其他训练中的 RWKV7-G1 模型(G1 2.9B):

  • Hugging Face:https://huggingface.co/BlinkDL/temp-latest-training-models/tree/main
  • 魔搭社区:https://modelscope.cn/models/RWKV/temp-latest-training-models/files

G1 模型发布计划

当前已发布 G1 0.1B/0.4B/1.5B 模型,正在训练 G1 2.9B,具体发布计划如下:

模型 发布计划
G1 0.1B 3 月 8 日(已发布)
G1 0.4B 3 月 25 日(已发布)
G1 1.5B 4 月 29 日(已发布)
G1 2.9B 5 月 中旬

我们也在同时准备更大更优的数据集 World v3.7。World v3.7 数据集的准备工作即将完成,届时将开始训练 RWKV7-G1 7B 模型。

加入 RWKV 社区

欢迎大家加入 RWKV 社区,可以从 RWKV 中文官网了解 RWKV 模型,也可以加入 RWKV 论坛、QQ 频道和 QQ 群聊,一起探讨 RWKV 模型。

  • 📖 RWKV 中文文档:https://www.rwkv.cn
  • 💬 RWKV 论坛:https://community.rwkv.cn/
  • 🐧 QQ 频道:https://pd.qq.com/s/9n21eravc
  • 📺 BiliBili 视频教程:https://space.bilibili.com/3546689096910933

欢迎大家基于 RWKV-7 进行创业、科研,我们也会为基于 RWKV 的项目提供技术支持。

如果您的团队正在基于 RWKV 创业或开展研究,请联系我们!(在"RWKV元始智能"微信公众号留言您的联系方式,或发送邮件到"[email protected]"。)


相關推薦

2025-03-29

mer(RWKV 时序预测) RWKV 模型新闻动态 新模型:RWKV7-G1 0.1B/0.4B 更大的 RWKV7-G1 正在训练中 RWKV 社区活动 RWKV 团队参加 NVDIA GTC 2025 RWKV 社区项目动态 RWKV 端侧 APP 发布并开源 新项目:WorldRWKV(RWKV 多模

2025-04-26

与调用。 豆包 1.5・深度思考模型是该公司于日前全新发布的一个模型,采用 MoE 架构,总参数 200B,激活参数为 20B,低于业界同类模型参数规模的 50%,具备显著的推理成本优势。 据称在数学、代码、科学等专业领域推理任

2024-09-27

Meta 今天发布了 Llama 3.2 系列开源模型,其中包括小型和中型视觉 LLMs(11B 和 90B),以及适合边缘和移动设备的小型纯文本模型(1B 和 3B),包括预训练和指令调整版本。 LLaMA 3.2 支持同时处理文本、图像和视频,能够理解并生

2025-03-27

千问从除夕夜开源全新的视觉模型Qwen2.5-VL,再到本月初发布并开源了全新推理模型QwQ-32B,在开源当日就登顶全球主流AI开源社区Hugging Face的趋势榜。 DeepSeek(深度求索)达成过“开源周”,其在2月末连续五天发布五个代码库,并

2024-07-30

家使用 RWKV-6 替代 Mamba 进行科研。截至 7 月 29 日,来自全球各地的科研团队已经陆续发表了 7 篇基于 RWKV 架构、在各个领域进行深入研究的论文。 新的 RWKV 学术研究主要聚焦于具身智能、图像处理、模型架构三个方面。 机器

2024-08-24

论区留言,我们会尽快解答。   UOS AI 技术亮点 大语言模型 UOS AI 接入qwen2、llama2等开源大语言模型,提供聊天对话功能,通过提示词工程可做文档总结、翻译功能。模型由llama.cpp与OpenVINO推理。 自定义语言模型集成 UOS

2024-08-01

! 省流版本: RWKV 官方公告 RWKV-6-World 14B 模型已发布 RWKV 中文官网 rwkv.cn 正式上线 RWKV 社区新项目 RWKV RAG:一键式 RWKV RAG 本地搭建项目,实现了最小封装和极高的扩展性 RWKV-Keras:RWKV 的 Keras 实现,支持 RWKV 模

2024-08-01

,这表明模型设计的效率有时比规模更重要。 从国家到全球焦点:美国以外的法学硕士,例如 Mistral 的 Mistral-large 和阿里巴巴的 qwen2- 72b -instruct,是该领域的新兴参与者,并且越来越受欢迎,代表了全球创建有效语言

2025-04-16

达到2亿。美国风险投资公司安德森・霍洛维茨在三月份发布的报告中,将 Quark 排在全球第六大 AI 应用,仅次于百度的 AI 搜索和 OpenAI 的 ChatGPT 及微软增强的 Edge 浏览器。 阿里巴巴在三月份对 Quark 进行了重组,该应用利用公司

2025-04-30

2025年4月29日,Qwen家族新成员Qwen3正式发布,包含多种模型版本。 1. 模型类型与参数 MoE 模型:有Qwen3-235B-A22B(总参数2350亿,激活参数220亿)和Qwen3-30B-A3B(总参数300亿,激活参数30亿)。 密集模型:包括Qwen3-32B、14B、8B、4B

2025-04-15

字节跳动 Seed 最新思考模型 Seed-Thinking-v1.5 技术报告发布,涵盖在数据体系、奖励模型、RL 算法、基础设施等维度的探索: 通过数据层面的精细化处理提升推理能力,融合可验证数据和非可验证数据,并提出全新的评测基准

2025-03-21

越了 OpenAI 的 GPT 模型、谷歌 DeepMind 的 Gemini 和 DeepSeek 等全球竞争对手。 共包括三个不同的尺寸:具有 320 亿个参数的 Exaone Deep 32B、具有 78 亿个参数的 Exaone Deep 7.8B 和具有 24 亿个参数的 Exaone Deep 2.4B。 LG 表示,韩国 AI 模型

2024-08-17

8月15日晚间,阿里巴巴集团发布最新季度业绩,AI推动阿里云重回增长,季度营收增长6%至265.49亿元,其中AI相关产品收入实现三位数增长,公共云业务实现两位数增长。同时,阿里云利润大涨,经调整EBITA利润同比增长155%,单季

2022-09-08

训练、端侧部署推理。 五 Roadmap 后续我们计划每个月发布Release版本。近期的Roadmap如下: Transformer 分类任务训练性能优化 & benchmark 自监督学习增加检测&分割benchmark 开发更多基于Transformer的下游任务,检测 & 分