Llama 4 不是真开源,比 DeepSeek 格局差多了


Meta昨天悄默声的发了Llama 4系列AI模型,CEO马克·扎克伯格在宣传视频中反复强调这将"加速开源AI发展"并让"全世界受益"。

不过,这一宣传却在AI开发社区引发了激烈争议。油管知名博主1littlecoder频道就做了一支很辛辣的视频(Llama 4 is NOT Open Source!),对Meta的开源主张提出了强烈质疑,指出Llama 4的许可条款与真正的开源精神相去甚远。


一、Meta的Llama 4发布与开源宣言

马克·扎克伯格在Llama 4发布视频中充满热情地宣布:"今天是Llama 4的日子。我们的目标是构建世界领先的AI,将其开源,并使其普遍可访问,让全世界都能受益。我一直认为开源AI将成为领先模型,而随着Llama 4,这开始变为现实。"

扎克伯格的宣言表明Meta正全力押注开源AI战略,试图在与OpenAI、Google等闭源模型巨头的竞争中,通过开源路线赢得主导地位。Meta在官方发布中反复强调Llama 4的"开源"性质,将其视为企业AI战略的核心优势。

然而,这一"开源"的定义很快受到了社区的严格审视。1littlecoder直言不讳地表示:"这是对开源的污蔑,与开源毫无关系。在这个视频中,我将论证为什么我们应该停止称Llama 4为开源模型。你可以称它为开放模型,你可以称它为开放权重模型,但它不是开源的。"

二、开源的本质与Llama 4的下载壁垒

开源软件的基本原则之一是普遍可访问性。正如视频中所述:"开源通过开源或免费许可促进对产品的普遍访问。这意味着任何人都应该能够访问你的产品,而不会有太多麻烦。"

与其他真正开源的AI模型相比,Llama 4的获取过程显得异常复杂。1littlecoder指出,即使是中国公司的模型如DeepSeek和Qwen,用户只需点击几下即可下载。而Meta的模型却设置了多重障碍:

"Meta的模型要求你首先登录Hugging Face账户,这点我能理解,他们可能有垃圾邮件问题。然后填写表格,务必提供你的法定全名。我是说,为什么下载PyTorch权重或一些随机二进制文件需要提供我的法定姓名?还有出生日期、完整的组织名称、所有公司标识符。"

更令人担忧的是,表格上明确警告:"避免使用首字母缩写和特殊字符。未能按照这些指示操作可能会阻止你访问此模型和Hugging Face上的其他模型。提交后,你将无法编辑此表格。因此,请确保所有信息准确无误。"

这意味着一旦因填写信息不当被Meta禁止,用户可能永远无法从Hugging Face下载该模型,这与开源软件的普遍可访问性原则直接冲突。

三、Llama 4的许可证限制与开源定义的冲突

更具争议性的是Llama 4的社区许可协议,1littlecoder将其描述为"对开源的污蔑"。这份许可协议包含多项限制,直接挑战了传统开源定义:

首先是用户限制条款:"如果你拥有一家月活跃用户超过7亿的公司,你不能使用这个模型。"虽然这对大多数开发者来说影响有限,但它违背了开源软件不应对使用者有歧视的基本原则。

"如果你来自Google或者像OpenAI这样的组织,你不能使用这个模型。对我们这些可怜的家伙来说,我们可以使用这个模型。"创作者半开玩笑地指出。

其次是关于再分发的严格要求。许可证规定,如果分发或提供Llama材料,必须显示"使用Llama构建"的标志。1littlecoder对此表示强烈不满:"为什么我要这样做?你想加速开源,对吧?你不是在寻求任何好处,因为你相信开源。只要给我模型,我想怎么用就怎么用。这是愚蠢,完全的愚蠢。"

更令人震惊的是命名要求:"如果你使用Llama材料或任何Llama材料的输出或结果来创建、训练、微调或以其他方式改进分发或提供的AI模型,你还应该在任何此类AI模型名称的开头包含'Llama'。"

"例如,如果你采用Qwen并用Llama相关模型进行某种微调,那么你必须称之为Llama Qwen、Llama Deep Seek或Llama GPT-4。"创作者解释道,"一个是标明'使用Llama构建',第二个是你必须在名称前加前缀,比如你必须说Llama然后是其他模型。我不认为这是开源。"

此外,还有版权声明要求:"在你分发的Llama材料的所有副本中,你必须包含以下归属声明,并与分发的此类副本一起提供声明文本文件:'Llama 4的许可证和Llama 4社区许可证,版权Meta平台,保留所有权利。'"

四、AI社区对Llama 4许可的专业评估

为验证自己的观点,1littlecoder向Google的Gemini AI提出了问题:"这是开源吗?它符合开源许可吗?"

Gemini的回答证实了创作者的疑虑:"这个许可证不完全符合基于普遍接受的开源定义和原则的开源许可证。"

Gemini列出了多个原因:

  • 商业限制(对大型平台的使用限制)
  • "使用Llama构建"的强制标注要求
  • 添加"Llama"前缀的命名要求
  • 附加声明的要求

Gemini进一步解释了为什么这些问题对开源重要:"像OSI(开源倡议组织)批准的开源许可遵循这些原则:使用自由、学习自由、再分发自由、修改自由,没有歧视。"

1littlecoder对此感到无比沮丧:"天哪,你甚至不能下载这个模型,如果你因为提供了一些错误的详细信息而被Meta封禁一次,那么你就再也无法从Hugging Face下载这个模型了。这是多么愚蠢!"

五、Llama 4的技术规格与模型系列

尽管存在许可争议,Llama 4在技术方面仍展现出令人印象深刻的能力。Meta发布了两个初始模型,并预告了两个即将推出的模型:

1. Llama 4 Scout

  • 极快速度,原生多模态
  • 业界领先的近乎无限的1000万token上下文长度
  • 设计为在单个GPU上运行
  • 170亿参数×16专家
  • "同类中性能最高的小型模型"

2. Llama 4 Maverick

  • 据称在所有基准测试中击败GPT-4.0和Gemini Flash 2
  • 比DeepSeek v3更小更高效,但在文本方面仍有可比性
  • 原生多模态
  • 170亿参数×128专家
  • 设计为在单个主机上运行,便于推理
  • 扎克伯格称其为"一头野兽"

即将推出的模型:

Llama 4 Reasoning - 预计在下个月有更多消息

Llama 4 Behemoth - 扎克伯格描述为"巨大",超过2万亿参数,"我不知道有人在训练更大的模型",据称已经是"世界上性能最高的基础模型",而且"甚至还没有完成训练"

扎克伯格对Llama 4系列的愿景是雄心勃勃的:"总体而言,Llama 4是Meta AI和开源的一个里程碑。首次,最好的小型、中型,可能很快是前沿模型将是开源的。还有很多工作要做,但这里的轨迹很明确。"

六、对AI开源未来的思考与挑战

1littlecoder在结束时呼吁AI社区重新思考什么才是真正的开源:"请不要称这为开源。我相信,将任何进入Hugging Face的愚蠢模型称为开源,对于开源代表的内容或开源支持者来说,是一种污蔑。这不是开源,只是你可以下载并带有一堆限制的开放权重。"

转载自 https://weibo.com/1233486457/Pm1mhEIkH


相關推薦

2025-04-11

关注的是,英伟达新模型的性能逼近拥有 6710 亿参数的 DeepSeek R1,但只用了不到一半的参数量。 测试结果显示,GPQA(76 vs. 71.5)、IFEval 指令遵循(89.5 vs. 88.8)和 LiveCodeBench 编码任务(66.3 vs. 65.9)。并且,Llama-3.1-Nemotron-Ultra-25

2025-03-20

Ollama 是开源跨平台大模型工具,让运行 Llama 3、DeepSeek-R1、Gemma 3 以及其他大语言模型变得更容易,现已发布最新版本 0.6.2。 Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面

2025-03-27

北京时间 3 月 24 日晚,DeepSeek 「突然」发布了模型更新。 但暂时还不是 DeepSeek V4 或 R2,而是 DeepSeek V3 模型的一次更新。 目前,其开源版本目前已经上架开源网站。其开源版本模型体积为 6850 亿参数。 https://huggingface.co/dee

2023-12-01

布,其探索 AGI(通用人工智能)的新组织“深度求索(DeepSeek)”继 11 月初发布 Coder 代码模型之后,正式发布通用大语言模型:DeepSeek LLM 67B。模型已完全开源,同时服务已经全面开放内测。 目前 DeepSeek 已同时开源 7B 和 67B 的

2025-03-25

Xinference v1.4.0 发布 🚀! ✨ Gemma-3 模型重磅来袭,DeepSeek-v3 现已支持 Function Calling! 🎉 社区贡献者突破 100+!感谢大家的支持,期待更多伙伴加入贡献代码 💪💖。 🌍 社区版 📌 更新指南 * Pip:pip install 'xinference==1.4.0

2024-07-25

型供应商之间的一个关键区别是,出售 AI 模型访问权限不是我们的商业模式。这意味着公开发布 Llama 不会像封闭提供商那样削弱我们的收入、可持续性或投资研究的能力。(这是一些封闭提供商不断游说政府反对开源的原因之

2025-03-20

全国大学生同上一堂人工智能大课”主讲专家。 著有《DeepSeek全攻略》、《走进具身智能》等广受欢迎的科普书。 OSCHINA 有幸邀请到了陈光教授(@爱可可-爱生活)做客「高手问答」栏目,和大家一起聊聊 AI。 本月初,陈光

2023-09-13

|2023 Google 开发者大会精彩演讲回顾 Aydyn Tairov 是一名开源作者,也是 Meta 前工程师,他此前将 GitHub 上火热的纯 C 语言实现的llama2.c项目移植到了 Python ——llama2.py。 上周 Mojo 编程语言正式开放下载,并且声称比 Python 快

2023-09-12

正在寻求在生成式 AI 领域与 OpenAI 展开竞争,将发布新的开源大模型,其性能或将与GPT-4 不相上下。 报道称,这款新模型比 Llama 2 强大数倍,将提供文本、图像生成以及分析等功能。目前该模型正处于开发之中,最终功能尚

2023-04-24

耀资本, Rust更像是一种证明自己比别人厉害的工具。 我不是说Rust不好, 而是不喜欢这种认为Rust就是天下第一的思想, 什么都要用Rust重写的想法。 4. Rust的强制内存管理, 在编写复杂逻辑的时候, 编译器打断太生硬了, 导

2025-03-26

储备能够助力中国提升生产可能性边界。 彭博社指出,DeepSeek改变了世界对中国的看法。从某种程度上来说,DeepSeek的出现本不应令人感到意外。仅庞大的人才库这一点,就使中国有更大的机会实现突破。 保尔森基金会旗下智

2025-04-03

端到端全模态大模型 Qwen2.5-Omni 成功登顶。紧随其后的是 DeepSeek-V3-0324和群核的 SpatialLM-Llama-1B。 Qwen2.5-Omni 是一种端到端多模态模型,旨在感知文本、图像、音频和视频等多种模态,同时以流式方式生成文本和自然语音响应。

2024-07-25

型选择标准的仅解码器 transformer 模型架构进行调整,而不是混合专家模型,以最大化训练稳定性。 此外,Llama 3 采用了迭代的后训练程序,每一轮使用监督微调和直接偏好优化。 Meta 表示,Llama 3.1 系列在推理能力和多语言支

2023-10-21

【源创会预告】1024 程序员节(的前两天),相约开源PHP办公室,我们一起聊 AI!>>> AI 编程语言 Mojo🔥 推出了支持 Mac 平台的版本,其创始人 Chris Lattner 称 Mojo + Apple Silicon 是强强联合,强上加强。 Mojo🔥 是 Modular AI 公