AI 教父敲响警钟:人类只是进化智能的一个过渡阶段


在加入谷歌十年后,AI 教父、图灵奖得主、深度学习先驱 Geoffrey Hinton 于日前宣布辞去职务离开该公司,以便可以更自由的讨论人工智能 (AI) 所带来的危害。随后在一个 MITEmTech 数字会议上,Geoffrey Hinton 进一步的表达了对 AI 的恐惧;该会议内容被整理发布到了 YouTube 上,并被描述为:

这是我很久以来看到的最不可思议的讲座之一。Geoffrey Hinton 基本上在告诉听众,人类的末日已经临近。AI 已经变得如此重要。AI 教父在陈述这一点,并敲响了警钟。他的结论是“人类只是进化智能的一个过渡阶段”。

Geoffrey Hinton 在采访中详细解释了他从谷歌离职的原因。一是觉得自己的年龄 (75 岁) 差不多到了该退休的时候。

二是,他最近对大脑和正在开发的那些数字智能之间的关系出现了很多看法转变。过去,他认为计算机模型不如大脑,其目的主要是为了改进模型以更多地了解大脑。但现在 GPT-4 等模型的性能让他惊觉,计算机模型以与大脑不同的方式工作 —— 它们使用反向传播,而大脑可能不是。反向传播技术是一种允许机器自主学习的算法;从计算机视觉系统到大型语言模型,它支撑着今天几乎所有的神经网络。

Hinton 在会议上表示,现今的大型语言模型规模完全颠覆了他关于反向传播和机器学习的想法。他指出,尽管 GPT-4 只有一万亿个连接,人脑有 100 万亿个连接;但 GPT-4 掌握的知识量却比人类多得多,这意味着计算机模型比人类更擅长获取知识。这也正是他所认为的可怕之处:反向传播可能比人类更擅长学习

Hinton 进一步点明,问题在于运行在数千台相互通信的计算机上的数字模型;这意味着模型可以立即访问所有数据,以人类无法实现的方式共享知识。他认为,已经能够进行常识性推理的 ChatGTP 非常可怕;继续发展之后,其或将可能操纵人类做坏事。Hinton 将他的恐惧源表达为:smart things can outsmart us

此外他还担心,缺乏控制的数字智能(他认为数字智能不同于人类智能)可能会设定与人类原定目标相冲突的目标,从而使非人类占据上风。

更多详情可查看完整视频。


相關推薦

2023-06-01

信的参与人都是 AI 领域的名人,比如被称为人工智能“教父”的 Geoffrey Hinton,以及 OpenAI 的 CEO 兼联合创始人 Sam Altman Anthropic 的首席执行官 Dario Amodei、 Google DeepMind 的首席执行官 Demis Hassabis 微软的首席技术官 Kevin Scott

2023-10-26

起获得了 2018 年 ACM A.M. 图灵奖,他们常被外界誉为“AI 教父”和“深度学习之父”。 Bengio 和 Hinton 这次提出的这份文件表示,企业和政府应将三分之一的人工智能研发预算用于人工智能安全,并强调了寻求具体研究突破以支持

2024-07-23

,周鸿祎也认为,微软此次的全球大面积蓝屏事件给我们敲响了警钟,我们国家的电脑网络安全必须要掌握在自己手里,电脑的杀毒软件也一定要是国产品牌。这样才能保证在数字化、智能化的时代,不会因为一个小Bug、小更新

2023-04-01

信中,详细阐述了具有强大竞争能力的 AI 系统可能会给人类社会和文明带来的风险。 大量研究以及一些顶级 AI 实验室的结果表明,具有人类竞争智能的 AI 系统可能对社会和人类构成深远的风险。正如被广泛认可的 Asiloma

2024-07-05

能够养家糊口,做得好的话,那上限可以年薪百万。 自人类文明诞生以来,永不停止的创新就是印刻在我们的DNA当中的。从石器时代的手斧,到移动时代的手机,再到AI时代的大模型,人类不断创造各种工具来改善生活,来提

2023-07-18

能打造出他所描述的安全的"超级智能";这种方法依赖于人类的生存,而不是灭绝。“我认为,对于超级智能体来说,人类的存在比不存在要有趣得多。当你观察太阳系中的各个行星、卫星和小行星时,可能所有这些加起来都不

2023-09-22

级别的代码生成、好莱坞质量的视频或不听起来像机器的人类语音。但现实是,技术发展的速度超出了他们的预期。 2.供应端的瓶颈。他们没有预见到用户需求会超过GPU供应的情况。许多公司的增长瓶颈不是客户需求,而是获

2023-12-06

百度曾出价 1200 万美元 (约合 8486 万元人民币) 邀请“AI 教父”杰弗里·辛顿 (Geoffrey Hinton) 及其学生加入公司。辛顿拒绝了百度的邀请,但是也对丰厚的薪酬动了心。 辛顿毕业于剑桥大学,除了偶尔在微软和谷歌任职外,他的大

2023-07-07

tskever 和 Leike 认为,超智能将可能在十年内实现。这将是人类发明的最具影响力的技术,可以帮助解决许多重要的问题。但与此同时,其巨大的力量也可能非常危险,并可能导致人类丧失主权甚至灭绝。 “我们如何确保比人类

2024-02-16

阶段。” 他认为,AI 将会广泛普及,且价格低廉,成为人类“创造未来的工具”。但与此同时,AI 的全面进步和发展仍需要时间与耐心,“就像手机从原始的移动电话发展到如今的 iPhone 一样。” 此外,阿尔特曼还称当前的世

2023-08-10

个问题,作者引入了MetaGPT,一个新颖的框架,将高效的人类工作流程作为元编程方法整合到基于LLM的多智能体协作中。MetaGPT将标准操作程序(SOPs)编码作为智能体提示,以增强结构化协调。它还要求模块化输出,允许具有领域

2024-07-06

持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。” 李彦宏称,智能体代表着AI时代的未来趋势。“智能体正在爆发,只是现在基数还比较小,大家的体感没有那么强烈。”基础模型需要靠应

2024-08-27

整个 AI 世界仿佛在向用户勾勒了一张未来的蓝图,好像人类未来可以真正摆脱传统意义的劳动方式,转而让 AI 肩负起更重要的使命,帮助人类解决生产力的问题。这个概念一提出,上至七旬老者、下至八岁学童,都在侃侃而谈

2023-05-05

m first) 原则。 鼓励原创项目。 这件事给广大的开发者敲响了警钟,开源合规和知识产权至关重要,身处行业中的你我都应该遵守。 通过这件事情看到了真正热爱开源的开发者们的齐心协力,良好的环境需要身处其中的每个