Kimi K2 再提速,最高可达每秒 100 Tokens


月之暗面今日宣布,经过工程师们的不懈努力,kimi-k2-turbo-preview 模型输出速度已经提升至每秒 60 Tokens,最高可达每秒 100 Tokens。  

目前该模型仍然享受 5 折特惠价格,模型每百万 tokens 输入价格(缓存命中)¥2.00,输入价格(缓存未命中)¥8.00,输出价格 ¥32.00。9 月 1 日恢复原价。

更多信息请访问官网 https://platform.moonshot.cn

月之暗面 8 月 1 日发布 Kimi K2 高速版 —— Kimi-K2-turbo-preview,模型参数与 Kimi-K2 一致,但输出速度由每秒 10 Tokens 提升至每秒 40 Tokens。

Kimi K2 是一款具备更强代码能力、更擅长通用 Agent 任务的 MoE 架构基础模型,总参数 1T,激活参数 32B。


相關推薦

2025-07-25

加契合。 尽管 Qwen-3 Coder 拥有更长的上下文长度优势(最高可达 100 万 tokens,而 Kimi K2 为 131K),但这并未弥补其在指令执行上的不足。两者的推理速度均属良好,但 Kimi K2 配合 Groq 加速时响应明显更快。 虽然这些开源模型正

2025-07-15

布了 Kimi K2 的价格,kimi-k2-0711-preview 定价如下(每百万 tokens): 输入价格(缓存命中)1 元; 输入价格(缓存未命中)4 元 输出价格 16 元 详情查看发布公告。

2025-05-07

气更亲切自然。" }, "finish_reason": "stop" } ], "usage": { "prompt_tokens": 8, "completion_tokens": 142, "total_tokens": 150 } } ‍或是通过 openai SDK: import os import openai client = openai.Client( base_url="https://api.moonshot.cn/v1", api_key=os.getenv("MOONSHOT_API_KEY"), ) s

2025-07-15

转载自:https://bigeagle.me/2025/07/kimi-k2/ 前两天我们忙活了大半年的 Kimi K2 终于发布了,在上线前熬了个大通宵之后饱饱睡了两天,今天终于有闲写一点心得。 叠甲:以下内容全部是我个人观点,不代表公司立场。 再叠甲:

2025-07-16

来自中国初创公司 Moonshot AI 的开源大语言模型 Kimi K2在 OpenRouter 平台的 token 消耗量(市场份额指标)上迅速攀升,超越 xAI 的 Grok4和 OpenAI 的 GPT-4.1,成为近期 AI 领域的焦点。 OpenRouter 作为一个统一 API 平台,允许开发者访问包

2025-07-18

月之暗面Kimi官方近日回应了Kimi K2 API速度慢的情况。 月之暗面表示,主要问题是访问量大 +模型体积大。月之暗面正在全力优化推理效率,也在加卡加机器。预计这几天内速度会有明显提升。同时,Kimi K2是完全开源的,大家

2025-07-18

然》杂志网站16日发表文章说,中国人工智能(AI)模型Kimi K2发布后引发轰动,世界迎来“又一个DeepSeek时刻”。中国在6个月内推出第二款令人印象深刻的模型,表明这一成功并非偶然。文章摘要如下: 继今年1月DeepSeek-R1震惊

2024-07-12

内容来源:deepin(深度)社区 近期,deepin(深度)社区宣布成功适配奕斯伟计算EIC7700X,实现了RISC-V版本deepin V23的稳定运行。这一举措再次印证了deepin对RISC-V生态的承诺和实力,也为开发者和用户打开了通往全新桌面体验的

2025-07-24

月之暗面(Moonshot AI)更新了Kimi K2模型的聊天模板,通过修改系统提示和参数处理方式,提升了工具调用的稳定性和可靠性。 具体变更包括: 更新了默认的系统提示; 在多轮工具调用中,强制使用模型返回的tool_id以提高

2025-07-26

Kimi-K2 和 Qwen3-Coder 这两个模型是最近在编程任务上表现不错的开源模型,关于二者的比较可阅读这篇文章:Kimi K2 和 Qwen-3 Coder 在编程任务的详细对比。 Kimi K2 是一个最先进的混合专家 (MoE) 语言模型,激活参数为 320 亿,

2025-07-12

安全。 基于 OpenVINO 推理框架深度优化,推理速度至高可达每秒 80 tokens! 专为开发者、研究人员与 AI 爱好者打造的本地大模型新体验。 主要功能: 支持 与模型进行文本&图片对话 支持 调用Intel集成显卡加速 支持

2025-04-08

示: 注:kimi-latest 模型自动缓存后的价格仍为 ¥1 / M Tokens。 上下文缓存的价格调整方案如下: 更多详情可查看: 模型推理产品定价 上下文缓存产品定价

2025-08-07

型,并明确了360集团在其中的战略定位。 周鸿祎指出,最高级的L5级智能体将具备“创造智能体”的能力,是AI发展的终极形态。 他将目前和未来的智能体划分为以下几个层级: L4级 - 多智能体蜂群:能够协同完成复杂任务

2024-08-04

码仓库级别的代码分析与排障工具 公告指出,该技术最高可以节省 90% 的费用(需要针对缓存特性进行优化)。即使不做任何优化,按历史使用情况,用户整体节省的费用也超过 50%。缓存没有其它额外的费用,只有0.1 元每百