OpenAI 今天发布了两个开源模型,分别是:
- gpt-oss-20b:中等规模大语言模型,参数量约为200亿。
- gpt-oss-120b:超大规模大语言模型,参数量达到1200亿。
这两款模型上下文长度皆为128k,均以Apache 2.0 License发布,意味着它们可以被自由用于商业和非商业用途,为开发者和企业提供了更多灵活性。
Django 创始人 Simon Willison 在他的 MacBook 上运行 gpt-oss-20b(通过 LM Studio)后表示“真的很棒”!
据 Simon Willison 介绍,在他的电脑上运行 gpt-oss-20b 占用了设备约 11.7 GB RAM。
gpt-oss-20b 提供低/中/高三档推理模式,Simon Willison 测试的结果如下:
-
低档→极快输出(约 0.07 秒),生成 SVG 带注释的错误;
-
中档→稍慢(≈4 秒)但效果更好;
-
高档→耗时较长(≈6 分钟),生成过程中过度推理。
对此他表示:
上个月我说最好的开放权重模型来自中国 AI 实验室。而随着 gpt-oss 模型的发布,这一说法已不再成立。
我正在等待尘埃落定,以及更可信的独立基准测试结果公布,但我认为 OpenAI 现在提供的可能是目前最好的开放权重模型。