Mistral Small 3.1 开源发布:128K 上下文、多模态、轻量级


Mistral AI 现已开源发布全新轻量级 AI 模型 Mistral Small 3.1。Mistral Small 3.1 能够处理文本和图像,参数仅为 240 亿。该模型提高了文本能力和多模态理解能力,并具备 128K 上下文窗口。

核心特性

  • 轻量级部署:可在 单个 RTX 4090 或 32GB RAM 的 Mac 上运行,非常适合本地或设备端应用。
  • 快速对话响应:优化交互体验,适用于虚拟助手等需要即时反馈的应用场景。
  • 低延迟函数调用:在自动化和代理工作流中可快速执行函数,提高效率。
  • 专属微调(Fine-Tuning):支持特定领域的定制优化,以满足不同业务需求。
  • 强大的推理能力:为社区创新提供坚实基础,例如 Nous Research 在 Mistral Small 3 之上构建的 DeepHermes 24B。

Mistral AI 表示,Mistral Small 3.1 的数据处理速度约为每秒 150 个字节,非常适合需要快速响应的应用。该模型被设计用于处理各种生成式人工智能任务,包括指令跟踪、对话辅助、图像理解和函数调用。它为企业级和消费级人工智能应用奠定了坚实的基础。

下载地址:Mistral Small 3.1 Base & Mistral Small 3.1 Instruct


相關推薦

2024-07-26

、Java、C、C++、JavaScript 和 Bash。 Mistral Large 2 拥有 128k 的上下文窗口,支持包括中文在内的数十种语言以及 80 多种编码语言。该模型在 MMLU 上的准确度达到了 84.0%,并在代码生成、推理和多语言支持方面有非常明显的改进。 M

2024-09-27

督微调、拒绝采样和直接偏好优化模型。 最后模型支持上下文扩展到 128K 个,同时也针对性优化了模型的多种能力,例如摘要、重写、指令遵循、语言推理和工具使用。

2024-07-25

lama 3.1 系列在推理能力和多语言支持方面进行了改善,其上下文长度被提升至 128K,而模型参数也被提高到了 4050 亿规模,是近年来规模最大的大语言模型之一。该模型在通用常识、可引导性、数学、工具使用和多语言翻译等广

2024-07-18

Transformer 的模型不同,基于 Mamba 的模型推理时间更快,上下文时间更长。 包括 AI21 在内的其他公司和开发者已经发布了基于 Mamba 的新人工智能模型。 现在,Mistral 的 Codestral Mamba 7B 采用了这种新架构,即使输入文本较

2023-09-30

法国人工智能初创公司 Mistral AI 宣布推出其首款大语言模型 Mistral 7B 是一个,号称是迄今为止同规模产品中最强大的语言模型;在 Apache-2.0 许可下开源,可完全免费使用,不受任何限制。 Mistral AI 是一个成立仅六个月的初创

2024-11-01

gCite-glm4-9b 和 LongCite-llama3.1-8b 这两个模型,支持最大 128K 上下文。 但它更擅长生成准确的回答和精确的句子级别的内容引用,如果说其他的知识库可能会经常出现幻觉甚至胡说八道的情况,那么 LongCite 相比精确度要高很多。

2024-03-14

本中删除,因为 Google 将在 6 个月后停止使用该机型。 Mistral AI 可重试的流式和非流式聊天客户端 函数调用 Mistral 应用程序的 Native compilation 函数调用改进 对函数调用进行了多项改进,并创建了一个示例程序。 Open

2025-03-29

合 RWKV 机制,ChemRB 将 RNN 的线性计算效率与 Transformer 的上下文感知相结合,有效捕获 SMILES 序列中的长程依赖性。该模型引入两个预训练任务 ------ 环级特征预测和全局跨度闭合预测,以提升分子有效性,尤其针对复杂环系统。

2023-03-16

OpenAI 刚刚宣布正式推出 GPT-4。GPT-4 是 Generative Pre-trained Transformer 4 的缩写,即生成型预训练变换模型 4。 公告写道,GPT-4 是一个多模态大型语言模型(支持接受图像和文本输入,以文本形式输出),也是 OpenAI 努力扩展深度学

2023-03-31

像和文本序列的大规模多模态数据集。 视觉语言任务的上下文学习评估基准。 ​​ OpenFlamingo-9B 模型(基于 LLaMA )的第一个版本 OpenFlamingo-9B 模型在 LAION-AI 自研的多模态 C4 数据集上训练,LAION-AI 称即将发布该数据集的细

2024-09-26

了升级,数学能力提升了 36%,专业知识能力提升了 35%,上下文窗口 token 数由128k 增加到了256K。对于大型语言模型,上下文窗口的大小是一个重要的参数,它决定了模型能够处理的长序列的能力。上下文窗口越大,模型

2024-08-01

 Anthropic 的 Claude 3.5 Sonnet。该闭源模型在短、中、长上下文场景中的表现均优于竞争模型。Anthropic 的 Claude 3.5 Sonnet 和 Claude 3 Opus 在各个类别中的得分始终接近满分,击败了去年的冠军 GPT-4o 和 GPT-3.5。在短语境中得分为 0.97(

2024-08-15

rence,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。   Xinference 的功

2024-10-16

rence,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。   Xinference 的功