Ollama v0.7.0 已发布,带来了显著的功能增强和性能优化,引入了新引擎支持多模态模型,并支持 WebP 图像作为输入。
- Meta Llama 4
- Google Gemma 3
- Qwen 2.5 VL
- Mistral Small 3.1
- 以及更多视觉模型
其他更新内容包括:
- 修复 Windows 上运行模型出现的空白终端窗口
- 修复
NVIDIA GPU
运行Llama 4
的错误 - 优化
ollama run
发送图片时去除引号 - 提升
ollama create
导入safetensors
模型性能 - 提升
Qwen3 MoE
在macOS
上的提示处理速度 - 修复结构化输出请求中大型
JSON
模式导致错误 - API 对不允许方法返回
405
错误码 - 以及修复模型卸载后进程持续运行的问题
Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面软件方便集成的过程,为普通用户提供简单易用的大语言模型(LLM)的本地部署和管理。
它支持多种先进的模型,如 LLaMA、DeepSeek、Mistral 等,并提供简单易用的界面和 API。Ollama 的特点包括轻量级设计、跨平台支持(Windows、Linux、macOS)、模型微调与自定义功能,以及高效的推理性能。
由于其便捷性和开源特性,Ollama 获得了大量用户的青睐,被广泛用于本地部署 DeepSeek 等大模型。
下载地址:https://github.com/ollama/ollama/releases/tag/v0.7.0