更新:周鸿祎回应 | 马斯克、苹果联合创始人等联名疾呼:暂停训练先进 AI 系统


马斯克 (Elon Musk)、苹果联合创始人 Steve Wozniak、图灵奖得主 Yoshua Bengio 等上千名行业高管和专家签署了一封公开信,呼吁所有 AI 实验室立即暂停对比 GPT-4 更强大的 AI 系统的训练至少 6 个月。并表示,这种暂停应该是公开的和可验证的,且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。

这封由非营利组织未来生命研究所 (Future of Life Institute) 发表的信中,详细阐述了具有强大竞争能力的 AI 系统可能会给人类社会和文明带来的风险。

大量研究以及一些顶级 AI 实验室的结果表明,具有人类竞争智能的 AI 系统可能对社会和人类构成深远的风险。正如被广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的谨慎和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生;尽管最近几个月 AI 实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,但没有人 —— 甚至他们的创造者都无法理解、预测、或可靠地控制。

当代人工智能系统现在在一般任务上已经具备了与人类竞争的能力。我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的​​信息渠道? 我们应该自动化所有的工作,包括有成就感的工作吗?我们是否应该发展最终可能在数量上超过我们、智慧上超越我们、淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?这样的决定绝不能委托给未经选举的技术领袖。 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。OpenAI 最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新模型的计算的增长速度。” 我们同意。那一点就是现在。

公开信建议 AI 实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级 AI 设计和开发的共享安全协议,并由独立的外部专家严格审核和监督。“这些协议应确保遵守它们的系统是安全的,无可置疑”。

 与此同时,AI 开发人员必须与政策制定者合作,以显着加快开发强大的 AI 治理系统。至少应包括:

  • 专门负责 AI 的全新的有能力的监管机构;
  • 监督和跟踪高能力的 AI 系统和大型算力池;
  • 注明出处和水印系统,帮助区分真实和合成、以及跟踪模型泄露;
  • 健全的审计和认证生态系统;
  • 对人工智能造成的伤害进行责任认定;
  • 为人工智能安全技术研究提供强大的公共资金;
  • 以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏(尤其是对民主的破坏)。

让我们享受一个漫长的 AI 夏天,而不是毫无准备地陷入秋天。” 

信中并没有详细说明 GPT-4 所揭示的危险,但包括签署这封信的纽约大学的 Gary Marcus 在内的研究人员长期以来一直认为,聊天机器人是伟大的骗子,有可能成为虚假信息的超级传播者。但也有不同意见者,作家 Cory Doctorow 就将人工智能行业比作"pump and dump"计划,认为人工智能系统的潜力和威胁都被大量夸大了。

一些外媒也认为,这份公开信不太可能对人工智能研究的当前氛围产生任何影响。因为谷歌和微软等科技公司急于部署新产品,往往会把一些对安全和道德的担忧视而不见。但这也表明,越来越多的人反对现在这种“ship it now and fix it later”的方法;这种反对派意见有可能进入政治领域,供实际的立法者考虑。

值得一提的是,微软公司联合创始人比尔·盖茨近日也在他的个人博客中畅谈了 ChatGPT 和生成式人工智能对教育、医疗、生产力提升、公平等等方面的影响,并声称,GPT 是其一生中见到的两项最具革命性技术之一。

“我对这一刻同样兴奋。这项新技术可以帮助世界各地的人们改善生活。与此同时,世界需要制定道路规则,让人工智能的任何缺点都远远超过它的好处,让每个人都能享受这些好处,无论他们住在哪里,无论他们有多少钱。人工智能时代充满机遇和责任。”

 


针对这一呼吁暂停 GPT-5 研发的联名公开信,360 创始人周鸿祎今天也在微博发表了自己的意见称,“我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。关于马斯克的请愿信,我不了解内幕,但我猜测是 GPT 的进化路上出现了超乎人类想象的现象。

周鸿祎认为,这不影响中国发展自己的大语言模型,包括 360 在内的一些中国公司已经展示了自己的作品,实事求是来说,离 GPT-4 的水平还有两年差距。现在担心风险为时尚早。

且“不管你愿不愿意,GPT 都将引领一场新的工业革命,意义超越互联网和 iPhone 的发明。它将带来生产力的大幅提升,进而提升国家竞争力。中国一定要迎头赶上。

值得一提的是,这封联名信属于公开署名;任何人都可以申请,所以其署名的真假还有待进一步确认。事实上,这封信确实受到了很多专家的质疑,被指加剧“AI 炒作”。未来生命研究所也清理掉了一部分名单,并在验证每个签名时暂停了在信上显示更多签名。


相關推薦

2023-04-02

读:  ChatGPT 泄露对话记录,CEO:开源库的错误 马斯克、苹果联合创始人等联名疾呼:暂停训练先进 AI 系统

2024-02-27

360集团创始人周鸿祎近日接受了新京报的独家采访,在被问及国内大模型企业如何追赶 Sora 时,他认为: “Sora的技术路线如果被开源,国内将能很快赶上,但在追赶Sora时,算力有可能成为门槛,对此,集中国内所有AI企业的

2023-04-06

计算资源的紧缺已经成为一个全行业的难题。 上个月,马斯克等人联名发表公开信,呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月,以确保人类能够有效管理其风险。两天后,意大利个人数据保护

2023-11-30

俞敏洪在公众号更新了与周鸿祎的采访对话。对话中双方聊到了大众对360的误解,周鸿祎表示,360不能卸载是一个彻底的谣言。 来源:https://mp.weixin.qq.com/s/pd2R8Y5Q6HtYODNfRvcbnA 周鸿祎称,因为360提供了完整的卸载过程。有

2023-07-18

埃隆·马斯克 (Elon Musk) 在日前举行的 Twitter Spaces 音频会议概述了他新成立的 xAI 公司的目标称,xAI 的首要目标是建立一个良好的 AGI(通用人工智能),达到“了解宇宙的真实本质”的目的。 针对一些人对 AGI 概念的恐惧,马斯

2023-07-25

而,苹果仍然需要对其他公司在人工智能领域的发展做出回应。据报道,该公司已经使用自有框架Ajax为其服务构建了许多机器学习功能,这些功能已经在苹果地图、Siri和某些搜索工具中实现。 据报道,Ajax是去年基于谷歌Jax开

2023-03-02

代人工智能重大科技项目支持下,2023年初,智源研究院联合30多家产学研单位共同承担的旗舰项目“人工智能基础模型支撑平台与评测技术”全面启动。经2个月集中攻关,开发出FlagOpen(飞智)大模型技术开源体系,旨在打造全

2023-07-15

7 月 13 日凌晨,马斯克在 Twitter 宣布由他参与组织及领导的 xAI 公司正式成立。 xAI 称他们成立的目标是“理解宇宙的真实本质”。有关 xAI 的更多信息,将会在 7 月 14 日于 Twitter Spaces (Twitter 的语音直播功能)透露并接受听

2023-11-07

马斯克旗下 xAI 团队发布其首个 AI 大模型产品 —— Grok;目前只训练了 2 个月左右的时间,因此尚处于非常早期的测试阶段。 Grok 是一款仿照《银河系漫游指南》设计的人工智能,可以回答几乎任何问题,更难能可贵的是,

2023-06-28

国加州大学伯克利 AMP 实验室的 Spark 大数据处理系统多位创始人联合创立。Databricks 致力于提供基于 Spark 的云服务,可用于数据集成,数据管道等任务,目前专注于提供面向企业的大数据和人工智能业务。 MosaicML 是生成式 AI 创

2022-02-23

积极参与该项目的管理。并证实了 Swift 之父、LLVM 项目创始人 Chris Lattner 将离开核心团队。Chris Lattner 早在 2010 年在苹果公司工作期间就已经开始开发 Swift 编程语言了,不过他已经在 5 年前离开了苹果。 核心团队目前正在研

2023-04-04

udio 在云端提供了 Cerebras Wafer-Scale Cluster。” Cerebras 联合创始人兼首席软件架构师 Sean Lie 称,由于很少有公司有资源在内部训练真正的大型模型,因此此次发布意义重大。“通常需要成百上千个 GPU,将七个经过全面训练的 GPT

2023-10-26

担法律责任。 政府必须准备好许可某些人工智能开发,暂停开发以应对令人担忧的能力,强制执行访问控制,并要求对国家级黑客采取强有力的信息安全措施,直到准备好足够的保护措施。 文件主要关注那些正在开发自主

2023-07-25

大模型之一。 本次发布会的主讲人为知未智能的联合创始人兼CTO段清华,毕业于北京大学计算机系,长期以来从业于金融科技领域,具备多年金融科技的项目经验,同时在机器学习和自然语言处理领域有着深入的研究。 以段