Bengio预言o1无法抵达AGI!Nature权威解读AI智能惊人进化,终极边界就在眼前
佚名
2024-12-08 09:02:30
0

AI究竟距离人类级水平的智能还有多远?

Nature最新一篇长文,从人类一直在思考的AGI问题入手,探究了o1掀起的新范式。

不过,这条新路终究无法到达AGI那天。

Bengio预言:o1无法抵达AGI

3个月前,OpenAI重磅推出推理模型o1,代表着AGI路线二级能力的实现。

相较于之前的大模型,凭借着强化学习+CoT,o1得以以人类的思维方式去解决问题。

也正是o1的诞生,为持续数十年来的一场辩论注入了新的燃料:究竟要到什么时候,机器才能胜任人类大脑所能处理的所有认知任务?

这其中包括从一项任务到另一项任务的泛化、抽象推理、规划以及选择对世界的哪些方面进行研究和学习?

AGI真正来临那天,可以解决很多棘手的问题,包括气候变化、流行病、癌症、阿尔茨海默氏症等等。

但这种巨大力量,也会为人类的未来带来诸多风险。

图灵奖得主Yoshua Bengio曾表示,滥用AI,或我们对其只去控制,都将发生令人糟糕的事情。

过去几年,大模型革命让许多人认为AGI又近了!但另有一些研究人员表示——最典型代表LeCun,「考虑到LLM如何构建和训练的,它们本身不足以达到AGI」。

甚至,Bengio也认为,「我们还缺少些东西」。

显然,现在关于辩论AGI的问题,比以往任何时候都要重要。

为什么AGI辩论会改变

AGI一词,大约在2007年开始进入人们的视野。

最先由AI研究者Ben Goertzel和Cassio Pennachin同时提出这一概念。

虽然它的确切定义仍模糊不清,但广泛上指的是具有类人推理、泛化能力的AI系统。

撇开模糊的定义不谈,在AI大部分历史中,显然我们还没有抵达AGI。

以AlphaGo为例,虽然它在围棋比赛中击败了人类选手李世石,但这种「超人」能力也仅仅局限在下围棋上。

而现在,LLM随之涌现的能力,从根本上改变了这个景观。

像人类的大脑一样,这些模型能泛化到各种任务中,以至于一些研究者开始认真思考,某种形式的AGI可能即将到来,甚至已经存在。

而且,这种能力的广度尤其令人震惊。

因为大多数研究人员,只是部分理解了LLM如何实现这些能力,但其运作机制终究是一个「黑盒」。

我们都知道,大模型是一种神经网络,其灵感就来源于大脑,由多层人工神经元组成,而这些神经元之间的连接强度可以调整。

在训练的过程中,最强大的模型如o1、Claude、Gemini,都依赖于「下一个token预测」的方法,模型的输入是文本token。

这些token可以是整个单词,也可以是一组字符。通过隐藏序列中的最后一个token,再让模型对其进行预测。

训练算法然后比较预测结果,并调整模型参数。这个过程会反复进行,直到模型可靠地预测被隐藏的token。

再之后,模型参数已经学到了训练数据的统计结构,以及其中的知识,并冻结参数。

当给定提示时,模型使用其来预测新的token,这一过程就被称为「推理」。

这些基于Transformer架构搭建的LLM,使之能力大幅超越以前的模型。

在此过程中,模型还涌现出其他的能力,尤其是随着参数规模的增加,如果LLM变得足够大,AGI也可能会出现。

LLM仍有局限

一个典型的案例CoT,让大模型将问题分解成更多步来解决,引导其正确回答问题。

CoT成为了o1表现如此卓越的基础。

在训练过程中,o1不仅学习预测下一个token,还学习为给定查询选择最佳的CoT提示。

这种思维链推理能力解释了,为什么o1-preview能够在IOI竞赛中解决了83%的问题,要知道公司此前最强大GPT-4o也只能解决13%的问题。

然而,尽管如此强大,但o1仍有局限性,并不能成为真正的AGI。

比如,在需要规划的任务中,Kambhampati的团队已经证明,尽管o1在需要多达16个规划步骤的任务中表现出色,但当步骤数增加到20到40之间时,其性能会迅速下降。

前谷歌研究员Francois Chollet也看到了,o1-preview在挑战类似问题的局限性,比如在ARC Prize挑战中的表现。

Chollet表示,大模型不论参数规模大小,在解决需要重新组合其所学知识的问题时,他们的能力是有限的。

因为大模型无法适应新奇的任务,没有能力将复杂知识重组,以适应新的环境。

LLM会是AGI终局吗?

那么,LLM会是通往AGI终点的唯一解吗?

许多研究人员认为,底层的Transformer架构具备了AGI行为的关键特性。

不过,它仍旧存在一些局限性。首先,用于训练模型的数据即将耗尽,Epoch AI估计,全网公开可用的文本数据可能会在2026年-2032年之间耗尽。

也有迹象表明,LLM参数扩大,所获得的收益并不像以往显著。

谷歌DeepMind伦敦研究副总Raia Hadsell提出了另一个问题,LLM预测下一个token单一的焦点太局限,无法提供AGI。

她还表示,构建一次或大量生成解决方案的模型,可以让我们更接近AGI。

世界模型,其实还没有建起来

神经科学家对AGI进展突破了直觉,他们认为,我们智力是大脑能够建立一个「世界模型」的结果。

这是我们对周围环境的一种表现。

它可以预想出不同的行动方案,预测其后果,从而进行规划和推理。

它甚至还可以通过模拟不同场景,将一个领域学到的技能泛化到新的任务中。

其实,此前也有MIT的研究也表明了,大模型内部出现了基本的世界模型。

论文地址:

AI大牛Max Tegmark声称,在包含美国、纽约市信息数据集训练后的开源LLM,竟展现出了世界、美国、纽约市内部的表征。

不过,这项研究也遭致一些批评,有人认为没有证据可以表明大模型正在使用世界模型模拟或学习因果关系。

另有其他研究表明,如今AI系统学习世界模型并不可靠。

哈佛大学计算机科学家Keyon Vafa和团队使用纽约市出租车行驶中转弯的巨大数据集训练了一个模型,目的是为了让其预测下一个转弯,几乎100%正确。

通过检查模型预测的转弯,研究人员能够证明它已经构建了一个内部地图,才得以给出答案。

不过这张地图,却与曼哈顿几乎没有相似之处。其中,包含了根本不存在的街道,以及其他街道上的立交桥。

直到研究人员调整测试数据,包含了以往数据中不存在的、不可预见的弯路时,模型便无法预测下一个转弯。

这也就说明了,模型是无法适应新情况的。

相关内容

2025年美国拉斯维加斯国...
MAGIC SHOW是目前全球规模最大、举办历史最悠久,参展企业、...
2025-03-18 09:19:47
2025 Magic Sh...
点亮星标⭐,不错过每一次推送美国Magic Show服装鞋帽展结束...
2025-02-18 08:16:44
OpenAI CEO阿尔特...
OpenAI CEO阿尔特曼最新思考:AI普惠与AGI的挑战,微软...
2025-02-11 08:01:02
OpenAI CEO阿尔特...
IT之家 2 月 10 日消息,在个人博客上发表的一篇新文章中,O...
2025-02-10 09:00:37
智元机器人开源百万真机数据...
高质量数据集是具身智能训练的重要燃料,但当下缺乏真机数据成为人形机...
2024-12-31 22:04:33
OpenAI正式发布o3 ...
OpenAI正式发布o3 - 通往AGI的路上,已经没有了任何阻碍
2024-12-21 23:01:45

热门资讯

靠七天无理由退货赚了200万?... 漏洞不是随便钻的。
英国首相为“AI 校园”揭幕:... IT之家 11 月 28 日消息,据路透社报道,当地时间 27 日,英国首相基尔・斯塔默(Keir ...
刚刚,OpenAI首个智能体提... 刚刚,OpenAI首个智能体提前曝光!高级编码AI剑指400万年薪L6级工程师,编程,工程师,智能体...
96GB大容量,芝奇推出DDR... 该套装将于2025年第一季度在全球各地陆续开售。
中国改变全球创新药估值!生物技... 中国改变全球创新药估值!生物技术的“DeepSeek时刻”已来,中国,医药,制药,创新药,生物技术,...
国产雷克萨斯终于来了,但我怀疑... 国产的雷克萨斯电车,不可能再给你玩加价那一套了
谷歌Pixel 9a手机渲染图... IT之家 2 月 10 日消息,爆料人士 Evan Blass 曝光了谷歌 Pixel 9a 的渲染...
连雷军都在劝你学AI,但这课我... 连雷军都在劝你学AI,但这课我劝你别买。。。,雷军,宇宙,编程,电脑,李飞飞,人工智能
一文看懂索尼、三星、豪威的各种... 1,三大厂家名词统一首先,“双原生ISO”这个词最先在手机端出现,还得追溯至绿厂 Find X2 P...
华米 Ov 们把手机电池搞得大... 话说,今年的国产旗舰手机,有一个特质很突出 —— 电池容量大。除了少数几款标准版机型,大多新机的电池...