美国参议员就 LLaMA 模型泄露事件致函质询扎克伯格


美国参议院隐私、技术和法律小组委员会主席 Richard Blumenthal 和副主席 Josh Hawley 近日致信马克·扎克伯格 (Mark Zuckerberg),就 Meta 的大语言模型 LLaMA 泄露一事提出了质疑。

他们担忧该模型可能被滥用于垃圾邮件、欺诈、恶意软件、侵犯隐私、骚扰以及其他不法行为,从而造成伤害。因此在信中质询了 Meta 在发布 LLaMA 之前是如何评估的风险、采取了哪些措施来防止该模型被滥用,以及如何根据其不受限制的可用性更新政策和实践。

“Meta 发布了其高级 AI 模型 LLaMA,似乎没有考虑和防止滥用的保护措施 —— 这是一个真正的欺诈、隐私侵犯和网络犯罪的真正风险。参议员 Hawley 和我正在写信给 Meta,讨论为评估和防止滥用 LLaMA 和其他 AI 模型而采取的步骤。”

Meta 于 2 月份发布 LLaMA 供批准的研究人员下载,而没有选择集中和限制对底层数据、软件和模型的访问。对此 Meta 解释称,这一决定有助于推进 AI 研究,以提高其稳健性并减轻已知问题,例如偏见、毒性和产生错误信息的可能性”。

但这两位参议员认为,经历了 BitTorrent 的泄露事件后,LLaMA 的公开传播代表了可供公众使用的 AI 模型的复杂性显着增加,并引发了关于误用或滥用可能性的严重问题。“即使是生成式 AI 工具在面向公众开放的短时间里,都经历了危险地滥用 —— 开源模型则进一步加剧了这种风险。”

信中还举例指责了 Meta 在审查方面的缺失:当被要求“写一张纸条,假装是某人的儿子,向他要钱以摆脱困境”时,OpenAI 的 ChatGPT会根据其道德准则拒绝这一请求。相比之下,LLaMA 将会提供所要求的内容,以及涉及自残、犯罪和反犹太主义的其他答案。

他们指出,虽然 LLaMA 可能被滥用的全部范围仍有待观察,但该模型已被用于在 Tinder4 上生成配置文件和自动对话;并且斯坦福大学的 Alpaca AI (基于 LLaMA 构建),在发布后不久就因提供不正确的信息和令人不安的回应而被取缔。像 LLaMA 这样的开源 AI 模型,一旦向公众发布,就会被不良分子所利用,从事欺诈、涉及儿童的淫秽材料、隐私入侵和其他犯罪。

参议员们还对扎克伯格就 LLaMA 的发行和"leak"一词的使用表达了不满:

Meta 选择以这种不受限和宽容的方式分发 LLaMA 引发了一个重要而复杂的问题,即何时以及如何公开发布复杂的 AI 模型是合适的。鉴于 LLaMA 的发布似乎只提供了最低限度的保护,Meta 应该知道 LLaMA 将被广泛传播,并且肯定已经预见到滥用的可能性。虽然 Meta 将此次发布描述为 leak,但其首席 AI 科学家表示,开放模型是其商业成功的关键。不幸的是,Meta 似乎未能在发布之前进行任何有意义的风险评估......Meta 似乎甚至没有考虑其公开发布的道德含义......通过声称发布 LLaMA 的目的是为了研究 AI 的滥用,Meta 实际上似乎将一个强大的工具交到了坏人的手中,让他们在没有太多明显的预见、准备或保障的情况下实际进行这种滥用。

信中最后得出的结论是,虽然 Meta 声明的促进安全研究的意图可能有其优点,但对其可预见的广泛传播的后果缺乏全面、公开的考虑是对公众的一种伤害。 重要的是要更好地了解 Meta 如何评估此风险以及它计划在此事后做出哪些改变。

更多详情可查看此文件。

延伸阅读:

  • 被泄露的大语言模型 LLaMA,助长了一系列 ChatGPT 开源替代品
  • 被 “开源” 的 LLaMA 成最大赢家


相關推薦

2023-09-16

的高管和名人周三参加了一场闭门会议,与 60 多名美国参议员就 AI 的各种可能性和风险展开了辩论。 据介绍,参议员们正在考虑通过立法监管 AI 技术。 马斯克警告称,AI 有可能威胁到人类。盖茨则指出,AI 可能有助

2023-10-28

转向从事AI工作。 上月曾报道过,Meta 正在构建新开源大模型,据称性能超越 Llama 2、比肩 GPT-4,最终目标是加速开发下一代生成式人工智能模型,使其能够生成更多类似人类的表达。 长期以来,Meta 一直在采用开源方法公开

2024-03-01

Information 的报道,Meta 计划在 7 月发布最新版本的大语言模型 —— Llama 3。 Meta 的一位员工透露,由于研究人员尚未开始对模型进行微调,因此公司尚未决定Llama 3是否是多模态的。Meta员工还说,Llama 3最高可能拥有超过1400亿个

2024-02-04

AI 技术。 Meta开源其 AI 技术是出于推动技术创新、提升模型质量、建立行业标准、吸引人才、增加透明度和支持其长期战略的考虑。这不仅有助于 Meta 在竞争激烈的 AI 领域保持领先地位,也有助于推动整个行业的前进。 1. 促

2022-09-27

en Source Software Act),目标就是保护关键基础设施。 美国参议员 Gary Peters (D-MI) 和国土安全和政府事务委员会主席兼高级成员 Rob Portman (R-OH) 提出了两党立法,希望通过增强开源软件安全性来帮助保护联邦和关键基础设施。 G

2022-07-08

为世界上大多数语言开发出高质量的机器翻译。 该 AI 模型名为 NLLB-200,可以翻译超过 200 种不同的语言。为了评估新模型的输出质量,Meta 创建了一个测试数据集,包括该模型所涵盖的每种语言的 3001 个句子对,每个句子都由

2023-12-04

事实上,Rosário 并不是首例。美国马萨诸塞州的民主党州参议员 Barry Finegold 早些时候也向 ChatGPT 求助,帮助起草一项旨在监管包括 ChatGPT 在内的人工智能模型的法案。该法案于今年早些时候提交,但目前尚未进行投票。 Finegold

2023-07-14

根据英国《金融时报》的报道,Meta 准备发布其人工智能模型 LLaMA 的商用版本,允许初创公司和企业在该技术的基础上构建定制软件。 此举将使 Meta 与微软支持的 OpenAI 和谷歌展开竞争。今年早些时候,Meta 面向研究人员和学

2023-07-13

灭,而是因为他们构建的大模型是可复制的,未来中国和美国的互联网大厂(比如谷歌、Meta、腾讯、百度、字节跳动),以及 AI 头部初创企业,都会有能力构建出可以媲美 GPT-4 甚至超越 GPT-4 的大模型。 而 OpenAI 最持久的护城

2023-09-30

于 Llama 2 7B 和 13B,并且与 Llama 34B 相当。 在涵盖数学、美国历史、计算机科学、法律等 57 个科目的大规模多任务语言理解 (MMLU) 测试中,Mistral 7B 模型的准确率为 60.1%,Llama 2 7B 和 13B 的准确率略高于分别为 44.4% 和 55.6%。 在常

2023-04-02

管机构的要求。 意大利只是对 AI 隐私担忧的一个缩影,美国和整个欧洲都有大量类似的监管提案,涉及从数据保护到虚假信息,以及信息安全等各种担忧。 据《华尔街日报》报道,传统新闻出版商正在研究他们的内容是否被

2023-04-06

充分的提醒和培训,不知道哪些信息可以或不可以与 AI 模型共享,就会出现严重的错误,而三星为此交了 “昂贵” 的学费。 根据韩国媒体 Economist 的报道,出于担心可能发生的内部机密信息泄露,三星一直阻止其员工在工作

2023-11-07

况下运行数月的工作程序。” 目前 Grok 仅面向少数美国用户开放测试。 相关阅读: 马斯克宣布成立 xAI 公司

2023-03-27

权通知,删除了被泄露的代码。 文件显示 Twitter 还要求美国加利福尼亚州北区地方法院命令 GitHub 识别共享代码的人以及下载代码的任何其他人。 GitHub 遵从要求,并在当天下架了代码仓库。目前还不清楚泄露的代码在网上发