AI 图像生成模型 Midjourney 发布 V7 Alpha


近日,AI 图像生成模型 Midjourney 发布了最新版本 V7 Alpha。

新版本主要变化:

  • 整体图像质量提高,对文字与图像提示的理解更准确,身体、手部及各种物体在细节上的一致性大幅增强;
  • 人物肤色和面部细节更加自然清晰,材质纹理(如羽毛、衣物)质感表现精细,光影效果逼真;
  • 能更好理解并呈现提示词描述的完整场景,元素间空间关系合理,背景与主体融合度高;
  • 能准确表现特定视角,低角度和特写等拍摄风格表现专业;
  • 氛围感和情感表达略弱,缺少一些戏剧性和神秘感,某些艺术风格的独特性和创意性稍显不足。

而本次 Midjourney V7 版本最大亮点便是「草稿模式」(Draft Mode),Midjourney 官方表示,「草稿模式」是迄今为止迭代创意的最佳方式。该模式成本仅为标准模式的一半,图像渲染速度却提升至 10 倍。草稿模式下,用户还能进入「语音模式」,通过语音指令进行实时创作。

V7 目前支持两种运行模式:Turbo 和 Relax。Turbo 模式速度更快,但成本为普通 V6 作业的 2 倍;草稿模式则成本减半。标准速度模式仍在优化中,预计不久后推出。

此外,放大、编辑和重新纹理功能将回退至 V6 模型,未来将逐步升级至 V7。情绪板和 SREF 功能已可用,后续更新将进一步提升性能。

Midjourney 团队透露,在未来 60 天内,每隔一至两周将推出新功能,其中最受期待的则是全新的 V7 角色和对象引用系统。


相關推薦

2023-10-26

生意助手推动全球跨境贸易的发展,服务全球外贸商家。Midjourney新网站上线测试版Midjourney新网站上线测试版,提供更快、更炫酷的AI绘画体验,包括全新视觉效果、灯光模式、灯箱功能和个人搜索功能。体验地址:https://beta.midjou

2025-03-22

负责 Midjourney V2 至 V7 模型开发的核心工程师 theseriousadult 在 X 上宣布已从公司离职。 theseriousadult 写道:“我几乎从第一天起就一直在使用 Cursor,我真的很高兴能开始从事长期以来在我的工作流程中如此重要的事情。语言模型

2025-04-18

竞技场 Artificial Analysis 上,Seedream 3.0 与 GPT-4o、Imagen 3、Midjourney v6.1、FLUX 1.1 Pro、Ideogram 3.0 等文生图模型同台竞技,在近期打榜中,一度排名第一。 Seedream 3.0 已在本月正式上线,目前已在豆包、即梦等平台全量开放。 另外,

2023-03-11

3000 万人在 Discord 上使用 AI 应用,使用范围最广的属于 Midjourney,这种 AI 使用户能够使用文本指令创建图像。Discord 声称其用户已经在 Discord 服务器上使用 AI 应用程序创建了超过 10 亿张独特的图像。 新一轮 AI 功能共推出了三

2024-08-14

Comfy Org 和 Civitai 三家公司共同发起成立,旨在促进用于图像、视频和音频生成的开放许可 AI 模型的开发和采用,推进开源 AI 模型的发展。 “OMI 成立是为了应对那些为企业采用设置障碍的许可决策,专注于在不可撤销的开放

2024-07-05

M,讯飞星火,文心一言等多个平台的大语言模型。集成了 MidJourney 和 Stable Diffusion AI绘画功能。 主要特性: 完整的开源系统,前端应用和后台管理系统皆可开箱即用。 基于 Websocket 实现,完美的打字机体验。 内置了

2025-04-04

: 1、Deepai(同比增长26%) 2、Leonardo(同比增长17%) 3、Midjourney(同比增长10%) 4、Getimg显示出显著增长,同比增长155% 写作与内容生成(同比增长14%) 在2025年初经历一段收缩期后,写作和内容生成工具到3月底反弹至同比14%

2023-09-22

初稿,现在它们提供了更多的控制和定制选项。 例如:Midjourney的新的平移命令和Runway的Director’s Mode创造了新的相机般的编辑体验。Eleven Labs使通过提示操作声音成为可能。 3、日益复杂的代理系统:生成式AI应用程序的能力正

2025-04-17

HiDream 智象未来团队宣布正式开源图像生成大模型 HiDream-I1 与交互编辑模型 HiDream-E1。 HiDream-I1 在权威榜单 Artificial Analysis 中 24 小时内登顶,成为首个跻身全球第一梯队的中国自研生成式 AI 模型,并在图像质量、语义理解、艺

2022-11-26

供了许多重大的改进和功能。 新的 Text-to-Image(文本转图像)的 Diffusion 模型 Stable Diffusion 2.0 版本包括使用全新的文本编码器(OpenCLIP)训练的文本转图像模型,该模型由 LAION 在 Stability AI 的支持下开发,与早期的 V1 版本相比

2024-10-22

术,能够根据用户输入的文本描述,自动生成丰富多彩的图像。无论是壮丽的山水风光,还是细腻的静物描绘,只需简单的文字描述,即可解锁无限创意。 打开画图工具: 输入图像描述内容: 首次打开,在未配置模型下

2023-11-23

eo Diffusion,该模型基于该公司现有的 Stable Diffusion 文本转图像模型,能够通过对现有图像进行动画化生成视频。 主要特性 文本到视频 图像到视频 14 或 25 帧,576 x 1024分辨率 多视图生成 帧插值 支持3D 场景 通过 LoRA

2024-09-27

括预训练和指令调整版本。 LLaMA 3.2 支持同时处理文本、图像和视频,能够理解并生成跨媒体内容。例如,用户可以在同一交互中结合文字和图像。 官方的评估结果显示,Llama 3.2 视觉模型在图像识别和一系列视觉理解任务上与

2025-03-27

等 devtools工具:创建模型时支持导入视图、支持借助AI生成测试数据、上传Excel通过AI解析创建模型字段、提升字段AI自动命名的响应性能并默认填充推荐值等 专业版: 新增图表设计支持零代码动态配置统计图表、新增序