AI 教父:应将 1/3 的 AI 预算用于风险管理


Yoshua Bengio 和 Geoffrey Hinton 与其他 22 位领先的人工智能学者及专家,一起提出了一个政策和治理框架,旨在解决与人工智能相关的日益增长的风险。

Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 曾因在深度神经网络上的卓越贡献,一起获得了 2018 年 ACM A.M. 图灵奖,他们常被外界誉为“AI 教父”和“深度学习之父”。

Bengio 和 Hinton 这次提出的这份文件表示,企业和政府应将三分之一的人工智能研发预算用于人工智能安全,并强调了寻求具体研究突破以支持人工智能安全工作的紧迫性。呼吁开发人工智能的大型私营公司以及政府政策制定者和监管机构采取特别行动。

与其对人工智能能力的投资相当的是,公司和政府应将至少三分之一的人工智能研发预算用于确保安全和合乎道德的使用。

政府迫切需要全面了解人工智能的发展。监管机构应要求模型注册、举报人保护、事件报告以及模型开发和超级计算机使用的监控。

在部署之前,监管机构应有权访问先进的人工智能系统,以评估其危险功能,例如自主复制、闯入计算机系统或使大流行病病原体广泛传播。

政府还应该让“frontier AI”(对最先进人工智能的称呼)的开发商和所有者对其模型造成的可合理预见和预防的损害承担法律责任。

政府必须准备好许可某些人工智能开发,暂停开发以应对令人担忧的能力,强制执行访问控制,并要求对国家级黑客采取强有力的信息安全措施,直到准备好足够的保护措施。

文件主要关注那些正在开发自主人工智能或"能够规划、在世界上行动并追求目标"的系统的公司所带来的风险。

其中指出,Open AI 提供的尖端 GPT-4 模型很快就能用于浏览网页、设计和执行化学实验以及利用软件工具,包括其他 AI 模型。AutoGPT 等软件程序的创建就是为了实现此类人工智能流程的自动化,让人工智能处理在没有人工干预的情况下继续进行。但他们认为,这些自主系统存在失控的巨大风险,而且没有办法对其进行控制。

如果我们构建高度先进的自主人工智能,我们就有可能创建追求不良目标的系统。恶意行为者可能故意嵌入有害目标。此外,目前没有人知道如何可靠地将人工智能行为与复杂的价值观结合起来。即使是善意的开发人员也可能会无意中构建出追求意想不到目标的人工智能系统 —— 特别是如果他们为了赢得人工智能竞赛而忽视了昂贵的安全测试和人工监督。

文件还呼吁加速研究突破,以解决创建具有安全和道德目标的人工智能方面的一些技术挑战:

  • 监督和诚实:能力更强的人工智能系统能够更好地利用监督和测试中的弱点——例如,通过产生虚假但令人信服的输出;
  • 鲁棒性:人工智能系统在新情况下(在分布转移或对抗性输入下)表现不可预测;
  • 可解释性:人工智能决策是不透明的。到目前为止,我们只能通过反复试验来测试大型模型。我们需要学会理解它们的内部运作;
  • 风险评估:Frontier AI 系统会开发出不可预见的功能,这些功能只有在训练期间甚至部署后才发现。需要更好的评估以更早地发现危险能力;
  • 应对新出现的挑战:能力更强的未来人工智能系统可能会表现出迄今为止仅在理论模型中出现的故障模式。例如,人工智能系统可能会学习假装服从或利用安全目标和关闭机制中的弱点来推进特定目标。

但与 Bengio 和 Hinton 观点不同的是,Yann Lecun 认为当前的人工智能风险不需要如此紧急的措施。

更多详情可查看此处。


相關推薦

2023-12-06

百度曾出价 1200 万美元 (约合 8486 万元人民币) 邀请“AI 教父”杰弗里·辛顿 (Geoffrey Hinton) 及其学生加入公司。辛顿拒绝了百度的邀请,但是也对丰厚的薪酬动了心。 辛顿毕业于剑桥大学,除了偶尔在微软和谷歌任职外,他的大

2023-05-07

在加入谷歌十年后,AI 教父、图灵奖得主、深度学习先驱 Geoffrey Hinton 于日前宣布辞去职务离开该公司,以便可以更自由的讨论人工智能 (AI) 所带来的危害。随后在一个 MITEmTech 数字会议上,Geoffrey Hinton 进一步的表达了对 AI

2023-06-01

信的参与人都是 AI 领域的名人,比如被称为人工智能“教父”的 Geoffrey Hinton,以及 OpenAI 的 CEO 兼联合创始人 Sam Altman Anthropic 的首席执行官 Dario Amodei、 Google DeepMind 的首席执行官 Demis Hassabis 微软的首席技术官 Kevin Scott

2023-02-09

,他们通常不会从自己的贡献中获利。他们当然没有大笔预算,也没有自己的合规部门。” 美国著名智库布鲁金斯学会也曾在去年指出,考虑到个人可能承担的责任风险,新的 AI 法案可能会促使开发人员减少开源模型发布,

2023-09-23

人工智能体验,如画图、照片、剪贴板等应用程序。 必应将增加对 OpenAI 最新 DALL.E 3 模型的支持,并根据用户的搜索历史提供更加个性化的答案,还将提供全新的人工智能购物体验,以及更新必应聊天企业版,使其更具移动性

2023-06-01

检测器对我们网络上的内容存在不可接受的高误判率,不应将其视为 GPT 作者身份的可靠指标。虽然这些并不是版主用来识别人工智能生成内容的唯一工具,但其中的一些启发式方法是在他们的协助下开发的。 我们已经提醒版

2023-04-04

,这些模型使用 Chinchilla 公式进行训练,可为给定的计算预算提供最高的准确性。Cerebras-GPT 与迄今为止的任何公开可用模型相比,训练时间更快、训练成本更低,并且功耗更低。 Cerebras-GPT 在 Cerebras 所拥有的 Andromeda AI 超级计

2023-06-28

发生之际,各公司正在充满挑战的宏观环境下削减了技术预算。IBM 今年年初裁员约 3900 人,并报告 3 月份季度收入同比增长不到 1%。

2023-10-21

AI 显著提升企业在现有数据湖上的模型训练和服务性能。用于模型训练的强化 API 集可实现优于商业化对象存储 20 倍的性能。对于模型服务,Alluxio 提供超高并发性,在将离线训练集群中的模型用于在线推理时实现高达 10 倍的速

2023-08-05

15%。“通过进一步的微调,基础模型可以被重新部署,用于跟踪森林砍伐、预测作物产量或探测和监测温室气体等任务。” 研究人员还与克拉克大学合作,计划将该模型应用于时间序列分割和相似性研究等领域。这是两种流行

2022-04-03

区资助项目,对 Rust 社区现有资金生态系统的补充;此次预算共 62.5 万美元,由 AWS、华为和谷歌捐赠。 该计划的目标在于: 支持 Rust 的维护者。“我们知道,许多人在志愿的基础上奉献了大量的时间来帮助 Rust 成为今天的样

2023-03-31

严格来说,它是语言、编辑器和基础设施的混合体,主要用于构建后端 Web 服务。 Darklang 的初衷是打破工具集爆炸的情况,让代码部署到生产环境的过程更轻松:程序员只需编写代码,代码会直接投入生产。简单来说,Darklang

2023-05-05

库在过去三年中增长了 5 倍。 开发人员只有 14% 的时间用于为核心产品编写新代码。其余时间则需用于搜索、理解和修复代码。82% 的人希望他们可以花更少的时间搜索信息或旧代码,花更多的时间进行编码工作。 73% 的开发

2023-04-01

审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新模型的计算的增长速度。” 我们同意。那一点就是现在。 公开信建议 AI 实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级 AI 设计和开