Mistral Small 3.1 开源发布:128K 上下文、多模态、轻量级


Mistral AI 现已开源发布全新轻量级 AI 模型 Mistral Small 3.1。Mistral Small 3.1 能够处理文本和图像,参数仅为 240 亿。该模型提高了文本能力和多模态理解能力,并具备 128K 上下文窗口。

核心特性

  • 轻量级部署:可在 单个 RTX 4090 或 32GB RAM 的 Mac 上运行,非常适合本地或设备端应用。
  • 快速对话响应:优化交互体验,适用于虚拟助手等需要即时反馈的应用场景。
  • 低延迟函数调用:在自动化和代理工作流中可快速执行函数,提高效率。
  • 专属微调(Fine-Tuning):支持特定领域的定制优化,以满足不同业务需求。
  • 强大的推理能力:为社区创新提供坚实基础,例如 Nous Research 在 Mistral Small 3 之上构建的 DeepHermes 24B。

Mistral AI 表示,Mistral Small 3.1 的数据处理速度约为每秒 150 个字节,非常适合需要快速响应的应用。该模型被设计用于处理各种生成式人工智能任务,包括指令跟踪、对话辅助、图像理解和函数调用。它为企业级和消费级人工智能应用奠定了坚实的基础。

下载地址:Mistral Small 3.1 Base & Mistral Small 3.1 Instruct


相關推薦

2024-07-26

、Java、C、C++、JavaScript 和 Bash。 Mistral Large 2 拥有 128k 的上下文窗口,支持包括中文在内的数十种语言以及 80 多种编码语言。该模型在 MMLU 上的准确度达到了 84.0%,并在代码生成、推理和多语言支持方面有非常明显的改进。 M

2024-09-27

督微调、拒绝采样和直接偏好优化模型。 最后模型支持上下文扩展到 128K 个,同时也针对性优化了模型的多种能力,例如摘要、重写、指令遵循、语言推理和工具使用。

2024-07-25

lama 3.1 系列在推理能力和多语言支持方面进行了改善,其上下文长度被提升至 128K,而模型参数也被提高到了 4050 亿规模,是近年来规模最大的大语言模型之一。该模型在通用常识、可引导性、数学、工具使用和多语言翻译等广

2025-04-18

tors 的工具 通过 Ollama 视觉模型(granite3.2-vision、gemma3、mistral-small3.1)添加 OCR 添加 Mistral AI 翻译 添加 KoboldCpp AI 翻译  添加 AvalAI 翻译 为 DeepL 添加“中文繁体” 为 TTS 添加画外音 在主文本框中添加“Insert unicode sym

2024-07-18

Transformer 的模型不同,基于 Mamba 的模型推理时间更快,上下文时间更长。 包括 AI21 在内的其他公司和开发者已经发布了基于 Mamba 的新人工智能模型。 现在,Mistral 的 Codestral Mamba 7B 采用了这种新架构,即使输入文本较

2024-11-01

gCite-glm4-9b 和 LongCite-llama3.1-8b 这两个模型,支持最大 128K 上下文。 但它更擅长生成准确的回答和精确的句子级别的内容引用,如果说其他的知识库可能会经常出现幻觉甚至胡说八道的情况,那么 LongCite 相比精确度要高很多。

2023-09-30

法国人工智能初创公司 Mistral AI 宣布推出其首款大语言模型 Mistral 7B 是一个,号称是迄今为止同规模产品中最强大的语言模型;在 Apache-2.0 许可下开源,可完全免费使用,不受任何限制。 Mistral AI 是一个成立仅六个月的初创

2025-04-11

(检索增强生成)和工具调用等任务。该模型支持 128K 的上下文长度,并且可以在单个 8xH100 节点上进行推理。 据介绍,Llama-3.1-Nemotron-Ultra-253B 的设计目标是支持高级推理、指令遵循以及 AI 助手工作流程。技术特点如下:

2024-03-14

本中删除,因为 Google 将在 6 个月后停止使用该机型。 Mistral AI 可重试的流式和非流式聊天客户端 函数调用 Mistral 应用程序的 Native compilation 函数调用改进 对函数调用进行了多项改进,并创建了一个示例程序。 Open

2025-04-22

言模型:兼容Safetensor PyTorch格式的DeepSeek R1、Phi3、Qwen2、Mistral,以及GGUF格式的Llama3.1、Llama3.2,结合OpenVINO优化的TinyLlama、Mistral7B、Phi3mini和Phi3.5mini,提供高效的本地聊天与推理能力。 ComfyUI工作流:通过集成ComfyUI,AI Playground

2025-03-29

合 RWKV 机制,ChemRB 将 RNN 的线性计算效率与 Transformer 的上下文感知相结合,有效捕获 SMILES 序列中的长程依赖性。该模型引入两个预训练任务 ------ 环级特征预测和全局跨度闭合预测,以提升分子有效性,尤其针对复杂环系统。

2023-03-16

OpenAI 刚刚宣布正式推出 GPT-4。GPT-4 是 Generative Pre-trained Transformer 4 的缩写,即生成型预训练变换模型 4。 公告写道,GPT-4 是一个多模态大型语言模型(支持接受图像和文本输入,以文本形式输出),也是 OpenAI 努力扩展深度学

2025-04-18

上海人工智能实验室(上海 AI 实验室)升级并开源了通用多模态大模型书生·万象3.0(InternVL3)。 根据介绍,通过采用创新的多模态预训练和后训练方法,InternVL3 多模态基础能力全面提升,在专家级基准测试、多模态性能全面

2025-04-10

Jina-XLM-RoBERTa 参数量 24 亿 2.78 亿 最大上下文长度 (查询 + 文档) 10,240 tokens 8,192 tokens 最大图像块数 (动态分辨率,每个块 28x28) 768 ❌ (不支持) 多语言支持 ✅ ✅ 支持的任务