LOADING

AGI通用人工智能:我们是否接近,尝试是否有意义?

AI行业快讯10个月前发布 senki
4,884 0 0
AGI通用人工智能:我们是否接近,尝试是否有意义?

一台可以像人一样思考的机器从一开始就一直是人工智能研究的指导愿景——并且仍然是其最具分歧性的想法。

AGI通用人工智能:我们是否接近,尝试是否有意义?

我们今天所知道的通用人工智能的想法始于百老汇的互联网泡沫。

二十年前——在 Shane Legg 与神经科学研究生 Demis Hassabis 就对智力的共同迷恋产生共鸣之前;在这对搭档与哈萨比斯儿时的朋友穆斯塔法苏莱曼(一位激进的激进主义者)联系起来,将这种迷恋融入一家名为 DeepMind 的公司之前;四年后,在谷歌以超过 50 亿美元的价格收购这家公司之前,Legg 在纽约一家名为 Webmind 的初创公司工作,该公司由人工智能研究员 Ben Goertzel 创立。今天,这两个人代表了人工智能未来的两个截然不同的分支,但他们的根源又回到了共同点。

即使在互联网泡沫的令人兴奋的日子里,Webmind 的目标也是雄心勃勃的。Goertzel 想创建一个 数字婴儿大脑 并将其发布到互联网上,他相信在那里他会成长为完全有自我意识并且比人类聪明得多。他 在 1998 年告诉 基督教科学箴言报: “我们正处于与智能的出现或语言的出现同等程度的转变的边缘。”

Webmind 试图通过构建一个预测金融市场行为的工具来为自己提供资金,但更大的梦想从未实现。在烧掉 2000 万美元后,Webmind 被赶出位于曼哈顿南端的办公室,并停止支付员工工资。它于2001年申请破产。

但莱格和格策尔保持联系。 几年后,当 Goertzel 正在整理一本 关于超人 AI的论文集时,正是 Legg 提出了这个标题。“我和 Ben 交谈时,我想,’好吧,如果是关于 AI 系统还没有的通用性,我们应该称之为 人工通用智能,’”Legg 说,他现在是 DeepMind 的首席科学家。“而且 AGI 有点像它的首字母缩写词。”

AGI通用人工智能:我们是否接近,尝试是否有意义?

这个词卡住了。Goertzel 的书和他在 2008 年发起的年度AGI 大会使 AGI 成为类人或超人 AI 的流行词。但它也成为了一个主要的问题。“我不喜欢 AGI 这个词,”Facebook 人工智能主管 Jerome Pesenti 说。“我不知道这是什么意思。”

他并不孤单。部分问题在于,AGI 是围绕整个技术的希望和恐惧的统称。与流行的看法相反,这与机器意识或思考机器人无关(尽管许多 AGI 人也梦想着这一点)。但这是关于从大处着眼。我们今天面临的许多挑战,从气候变化到民主国家的失败,再到公共卫生危机,都非常复杂。如果我们拥有能够像我们一样思考或更好的机器——更快、更不累——那么也许我们就有更好的机会解决这些问题。正如计算机科学家 IJ Good 在 1965 年所说:“第一台超智能机器是人类需要做出的最后一项发明。”

埃隆马斯克早期投资了 DeepMind,并与包括彼得泰尔和山姆奥特曼在内的一小群大型投资者合作,向 OpenAI 投入了 10 亿美元,他凭着疯狂的预测打造了个人品牌。但当他说话时,数百万人会倾听。几个月前,他告诉《纽约时报》, 超人 AI 距离我们还有不到五年的时间。“它很快就会降临到我们 头上,”他在Lex Fridman 播客上说。“然后我们需要弄清楚我们应该做什么,如果我们有那个选择的话。”

五月,佩森蒂 回击。“埃隆马斯克不知道他在说什么,”他在推特上写道。“没有 AGI 这样的东西,我们远不及人类智能。” 马斯克回答说:“Facebook 很烂。”

这样的突发事件并不少见。百度前人工智能负责人、谷歌大脑联合创始人 吴恩达(Andrew Ng)表示:“让我们摒弃 AGI 的废话,把更多的时间花在紧迫的问题上。”

和 朱利安·托杰利斯,纽约大学的研究人员AI:“信仰在AGI就像魔术的信念。这是一种放弃理性思考,对无法理解的事物表达希望/恐惧的方式。” 在 Twitter 上浏览 #noAGI 主题标签,你会看到许多人工智能的重量级人物,包括Facebook 的首席人工智能科学家 Yann LeCun,他在 2018 年获得了图灵奖。

但随着 AI 最近取得的成功,从棋盘游戏冠军 AlphaZero 到令人信服的假文本生成器 GPT-3,关于 AGI 的讨论激增。尽管这些工具离代表“通用”智能还很远——AlphaZero 不能写故事,GPT-3 不能下棋,更不用说理解为什么故事和国际象棋对人们很重要了——建立一个曾经被认为很疯狂的 AGI 的目标是再次变得可以接受。

世界上一些最大、最受尊敬的人工智能实验室非常重视这个目标。OpenAI 曾表示,它希望成为 第一个构建具有类似人类推理能力的机器的人。DeepMind 的非官方但被广泛重复的使命宣言是“解决智能问题”。两家公司的高层都乐于从 AGI 的角度讨论这些目标。

半个世纪以来,我们仍然远未制造出具有人类甚至昆虫的多任务处理能力的 AI。

“在 2000 年代初期谈论 AGI 会让你处于疯狂边缘,”Legg 说。“即使当我们在 2010 年创立 DeepMind 时,我们在会议上也获得了惊人的眼球。” 但事情正在发生变化。“有些人对它不舒服,但它是从寒冷中进来的,”他说。

那么为什么 AGI 会引起争议呢?为什么这有关系?这是一个鲁莽的、误导性的梦想——还是最终目标?

什么是 AGI?

这个术语已经流行了十多年,但它所包含的思想已经存在了一生。

1956 年夏天,十多位科学家聚集在新罕布什尔州达特茅斯学院,从事他们认为规模不大的研究项目。人工智能先驱约翰·麦卡锡、马文·明斯基、纳特·罗切斯特和克劳德·香农在事先推介研讨会时 写道:“这项研究是基于以下猜想进行的:学习的每个方面或智能的任何其他特征原则上都可以如此精确描述了可以制造一台机器来模拟它。将尝试找到如何让机器使用语言,形成抽象和概念,解决现在留给人类的各种问题,并改进自己。” 他们认为这需要 10 个人两个月的时间。

时间快进到 1970 年,明斯基再次无所畏惧:“在三到八年内,我们将拥有一台具有普通人一般智能的机器。我的意思是一台能够阅读莎士比亚、给汽车加油、玩办公室政治、讲笑话、打架的机器。届时,机器将开始以惊人的速度进行自我教育。再过几个月,它就是天才级别,再过几个月,它的威力将不可估量。”

在人工智能的这些愿景中,有三点突出:类似于人类的概括能力、以指数速度自我提升的超人能力,以及一厢情愿的超大规模部分。半个世纪以来,我们仍然远未制造出具有人类甚至昆虫的多任务处理能力的 AI。

AGI通用人工智能:我们是否接近,尝试是否有意义?

这并不是说没有取得巨大的成功。早期遗愿清单上的许多项目都已被勾选:我们拥有可以使用语言、查看并解决我们许多问题的机器。但是我们今天拥有的人工智能并不像先驱者想象的那样像人类。深度学习是推动 AI 热潮的技术,它训练机器成为大量事情的大师——比如写假故事和下棋——但一次只能做一个。

当 Legg 在他 2007 年的书中向 Goertzel 建议使用 AGI 一词时,他将通用人工智能与这种狭隘的主流 AI 思想相对立。人们一直在使用几个相关的术语,例如“强人工智能”和“真正的人工智能”,来区分明斯基的愿景和已经到来的人工智能。

柏林赫蒂学院的人工智能研究员乔安娜·布赖森 (Joanna Bryson) 说,谈论 AGI 通常意味着暗示人工智能失败了:“人们认为人们只是在做这种无聊的事情,比如机器视觉,但我们在这里——当时我就是他们中的一员——仍在努力了解人类的智慧,”她说。“强人工智能、认知科学、AGI——这些是我们表达的不同方式,‘你们搞砸了;我们正在前进。’”

这种认为 AGI 是 AI 研究真正目标的想法仍然存在。一个有效的人工智能系统很快就会变成一个软件——布赖森的“无聊的东西”。与此同时,AGI 成为任何我们还没有弄清楚如何构建的 AI 的替代品,总是遥不可及。

有时,Legg 将 AGI 称为一种多功能工具——一种可以解决许多不同问题的机器,而不必为每个额外的挑战设计新的机器。从这个角度来看,它不会比 AlphaGo 或 GPT-3 更聪明。它只会有更多的功能。这将是一个通用的人工智能,而不是一个成熟的智能。但他也谈到了一种你可以与之互动的机器,就好像它是另一个人一样。他描述了一种终极玩伴:“与机器互动并向它展示一个新的纸牌游戏,让它理解并问你问题并和你一起玩游戏会很棒,”他说。“这将是一个梦想成真。”

当人们谈论 AGI 时,他们通常想到的是这些类似人类的能力。 DeepMind 的 Legg 的同事 Thore Graepel喜欢引用科幻作家罗伯特·海因莱因 (RoBERT Heinlein) 的一句话,这似乎反映了明斯基的话:“人类应该能够换尿布,计划入侵,屠宰一头猪,conn一艘船,设计一栋建筑,写一首十四行诗,平衡账目,筑一堵墙,固定一根骨头,安慰垂死的人,接受命令,下达命令,合作,独自行动,解方程,分析一个新问题,施肥,编程电脑,做一顿可口的饭菜,有效地战斗,英勇地死去。专门针对昆虫。”

然而,有趣的事实是:Graepel 的首选描述是由 Heinlein 1973 年的小说《Time Enough for Love》中的Lazarus Long 讲述的 。Long 是某种超人,是一项让他活了数百年的基因实验的结果。在那段漫长的时间里,龙活了许多生命,掌握了许多技能。换句话说,明斯基描述了一个典型人类的能力;格雷佩尔没有。

寻找 AGI 的目标一直在以这种方式转移。当人们谈论类似人类的人工智能——像你我这样的人类,或者像 Lazarus Long 这样的人类时,他们是什么意思?对于 Pesenti 来说,这种歧义是一个问题。“我认为没有人知道它是什么,”他说。“人类不能做所有事情。他们无法解决所有问题,也无法让自己变得更好。”

那么,什么可能的AGI是这样的做法?称其为“类人”既含糊又过于具体。人类是我们拥有的通用智能的最好例子,但人类也是高度专业化的。快速浏览一下动物智慧的各种世界——从蚂蚁的集体认知到乌鸦或章鱼的解决问题的能力,再到黑猩猩的更容易识别但仍然是外星智慧——表明有很多方法可以建立一般智力.

AGI通用人工智能:我们是否接近,尝试是否有意义?

即使我们确实构建了 AGI,我们也可能无法完全理解它。今天的机器学习模型通常是“黑匣子”,这意味着它们通过人类无法理解的计算路径得出准确的结果。将自我改进的超级智能添加到组合中,很明显为什么科幻小说经常提供最简单的类比。

有些人还会将意识或知觉套索到 AGI 的要求中。但如果智力难以确定,意识就更糟。哲学家和科学家们并不清楚它在我们自己身上是什么,更不用说它在计算机中是什么了。智力可能需要一定程度的自我意识,反思你对世界的看法的能力,但不一定是一回事意识是什么 感觉 就像体验世界或反映在您的这观点。即使是 AGI 最忠实的人也不知道机器意识。

我们如何制作 AGI?

Legg 的整个职业生涯都在追求情报。在 Webmind 之后,他与瑞士卢加诺大学的 Marcus Hutter 合作完成了一篇名为“机器超级智能”的博士论文。Hutter(现在也在 DeepMind 工作)正在研究智能的数学定义,该定义仅受物理定律的限制——终极通用智能。

两人发表了他们所谓的 普遍智能的方程式,莱格将其描述为衡量在各种环境中实现目标的能力。他们表明,他们的数学定义与心理学中发现的许多智力理论相似,心理学也根据一般性来定义智力。

在 DeepMind,Legg 正在将他的理论工作转化为实际演示,从在特定环境中实现特定目标的 AI 开始,从游戏到蛋白质折叠。

接下来是棘手的部分:将多种能力结合在一起。深度学习是我们拥有的最通用的方法,因为一种深度学习算法可用于学习多个任务。AlphaZero 使用相同的算法来学习围棋、将棋(一种来自日本的类似国际象棋的游戏)和国际象棋。DeepMind 的Atari57 系统使用相同的算法来掌握每个 Atari 视频游戏。但是 AI 仍然一次只能学习一件事。掌握了国际象棋的 AlphaZero 不得不抹去记忆,从头开始学习将棋。

Legg 将这种通用性称为“单一算法”,而不是人类拥有的“单脑”通用性。一种算法的通用性非常有用,但不如单脑算法有趣,他说:“你和我不需要切换大脑;我们不会把我们的国际象棋大脑用于下棋。”

从单一算法到单一大脑是人工智能面临的最大开放挑战之一。单脑人工智能仍然不是真正的智能,只是更好的通用人工智能——莱格的多功能工具。但无论他们是否为 AGI 拍摄,研究人员一致认为,今天的系统需要变得更加通用,对于那些确实以 AGI 为目标的人来说,通用 AI 是必要的第一步。有一长串方法可能会有所帮助。它们的范围从已经存在的新兴技术到更激进的实验(见方框)。大致按照成熟的顺序,它们是:

  • 无监督或自监督学习。 标记数据集(例如,用“猫”标记所有猫的图片)以告诉人工智能他们在训练期间正在看什么是所谓的监督学习的关键。它仍然主要是手工完成的,是一个主要的瓶颈。AI 需要能够在没有人类指导的情况下自学——例如,查看猫和狗的图片并学习在没有帮助的情况下区分它们,或者在 没有人类标记的先前示例的情况下发现 金融交易中的异常情况。这被称为无监督学习,现在变得越来越普遍。
  • 迁移学习,包括小样本学习。 今天的大多数深度学习模型都可以训练为一次只做一件事。迁移学习旨在让 AI 将其训练的某些部分(例如下棋)转移到另一项任务(例如下围棋)上。这就是人类学习的方式。
  • 常识和因果推理。 如果 AI 具有常识的基础,那么在任务之间转移训练会更容易。常识的一个关键部分是理解因果关系。为 AI赋予 常识 是目前的热门研究课题,其方法范围从将简单规则编码到神经网络中到 限制 AI 可以做出的可能预测。但工作仍处于早期阶段。
  • 学习优化器。这些工具可用于塑造 AI 的学习方式,指导他们更有效地进行训练。最近的工作表明,这些工具可以自行 训练——实际上,这意味着使用一个 AI 来训练其他工具。这可能是朝着 AGI 目标自我改进 AI 迈出的一小步。

所有这些研究领域都建立在深度学习之上,深度学习仍然是目前构建人工智能最有前途的方式。深度学习依赖于神经网络,神经网络通常被描述为类似于大脑,因为它们的数字神经元受到生物神经元的启发。人类的智慧是我们拥有的一般智慧的最好例子,所以从我们自己身上寻找灵感是有意义的。

但大脑不仅仅是一大堆神经元。它们具有相互协作的独立组件。

例如,当哈萨比斯和莱格相遇时,他正在研究处理记忆的海马体。哈萨比斯认为人类大脑的一般智力部分来自 海马体和皮层之间的相互作用。这个想法催生了 DeepMind 的 Atari 游戏 AI,它使用一种受海马体启发的 算法,称为 DNC(差分神经计算机),将神经网络与专用内存组件相结合。

诸如 DNC 之类的人工大脑组件有时被称为认知架构。它们在其他 DeepMind AI 中发挥作用,例如 AlphaGo 和 AlphaZero,它们将两个独立的专用神经网络与搜索树相结合,这是一种旧形式的算法,有点像决策流程图。GPT-3 等语言模型将神经网络与称为转换器的更专业的网络相结合,该转换器处理文本等数据序列。

最终,实现 AGI 的所有方法都归结为两大思想流派。一是如果你的算法正确,你可以将它们安排在你喜欢的任何认知架构中。像 OpenAI 这样的实验室似乎支持这种方法,构建越来越大的机器学习模型,可以通过蛮力实现AGI。

另一所学校说,对深度学习的执着让我们望而却步。如果 AGI 的关键是弄清楚人工大脑的组件应该如何协同工作,那么过分关注组件本身——深度学习算法——就是只见树木不见森林。获得正确的认知架构,您几乎可以事后添加算法。这是 Goertzel 喜欢的方法,他的 OpenCog 项目试图构建一个开源平台,将拼图的不同部分整合到一个 AGI 整体中。这也是 DeepMind 在为 AlphaGo 结合神经网络和搜索树时探索的一条路径。

AGI通用人工智能:我们是否接近,尝试是否有意义?

“我个人的感觉是它介于两者之间,”Legg 说。“我怀疑有相对较少数量的精心设计的算法,我们将能够将它们组合在一起以变得非常强大。”

Goertzel 并不反对。“谷歌和 DeepMind 对 AGI 的深入思考让我印象深刻,”他说(两家公司现在都归 Alphabet 所有)。“如果有任何大公司会得到它,那就是他们。”

但是,不要屏住呼吸。由于几十年来低估了挑战,除了马斯克之外,很少有人愿意冒险猜测 AGI 何时(如果有的话)到来。即使是 Goertzel 也不会冒险将他的目标固定在特定的时间表上,尽管他会说宜早不宜迟。毫无疑问,深度学习的快速进步——尤其是 GPT-3——通过模仿某些人类能力提高了人们的期望。但模仿不是智能。前面的道路上还有很大的坑,研究人员还没有测出它们的深度,更不用说想办法填补它们了。

“但如果我们继续快速行动,谁知道呢?” 莱格说。“在几十年的时间里,我们可能会拥有一些非常、非常有能力的系统。”

为什么 AGI 有争议?

没有人知道如何构建 AGI 的部分原因是很少有人同意它是什么。不同的方法反映了我们对目标的不同想法,从多工具到超人 AI。正在朝着使 AI 更具通用性的方向迈出微小的步伐,但在可以解决多种不同问题的通用工具与可以解决人类无法解决的问题(Good 的“最后一项发明”)之间存在巨大鸿沟。“人工智能有很多进步,但这并不意味着 AGI 有任何进步,”吴恩达说。

没有任何一方关于 AGI 是否可以实现的证据,这个问题就变成了一个信仰问题。“这感觉就像中世纪哲学中关于是否可以在大头针上放置无限数量的天使的争论,”托格利乌斯说。“这个不成立; 这些都只是说说而已。”

Goertzel 对争议的讨论轻描淡写。“两边都有极端的人,”他说,“但中间也有很多人,中间的人不太会喋喋不休。”

Goertzel 将像 Ng 这样的 AGI 怀疑论者放在一端,将他自己放在另一端。从他在 Webmind 的日子开始,Goertzel 就将媒体视为 AGI 边缘的傀儡。他 主持AGI 会议并领导一个名为 SingularityNet 的组织, 他将其描述为一种“区块链上的 Webmind”。从 2014 年到 2018 年,他还是 Hanson Robotics 的首席科学家,这家总部位于香港的公司于 2016 年推出了一种名为 Sophia 的会说话的人形机器人。Sophia 比尖端研究更像是主题公园模特,让 Goertzel 成为世界各地的头条新闻。但即使他承认它只是一个“戏剧机器人”,而不是人工智能。Goertzel 独特的表演风格已经导致许多严肃的人工智能研究人员与他的范围保持距离。

他将像 Yoshua Bengio 这样的人放在中间,他是蒙特利尔大学的人工智能研究员,他是 2018 年与 Yann LeCun 和 Geoffrey Hinton 共同获得图灵奖的人。在 2014 年 AGI 会议的主题演讲中,Bengio建议构建具有人类智能水平的人工智能是可能的,因为人脑是一台机器——只需要弄清楚。但他并不相信超级智能——一种超越人类思维的机器。无论哪种方式,他都认为除非我们找到一种方法来赋予计算机常识和因果推理,否则无法实现 AGI。

然而,Ng 坚称他也不反对 AGI。“我认为 AGI 非常令人兴奋,我很想去那里,”他说。“如果我有很多空闲时间,我会自己做。” 当他在 Google Brain 工作时,深度学习不断发展壮大,Ng 和 OpenAI 一样想知道是否简单地扩展神经网络可以成为通向 AGI 的途径。“但这些是问题,而不是陈述,”他说。“当人们开始对其提出具体要求时,AGI 变得有争议。”

一个比关于 AGI 多久可以实现的傲慢更具分裂性的问题是,如果它被放任,它会做什么的恐慌。在这里,猜测和科幻小说很快就模糊了。马斯克说 AGI 将比核武器更危险。现就职于中国武汉大学的 AI 研究员 Hugo de Garis 在 2000 年代预测,到本世纪末,AGI 将导致世界大战和“数十亿人死亡”。神一样的机器,他称之为“人工制品”,将与人类支持者宇宙主义者结盟,对抗人类抵抗者人族。

“相信 AGI 就像相信魔法一样。这是一种放弃理性思考,对无法理解的事物表达希望/恐惧的方式。”

当像 de Garis 这样直言不讳地支持“男性主义”和反犹太主义观点的人在 Goertzel 的 AGI 书中发表了一篇文章,以及 Hutter 和 Jürgen Schmidhuber 等严肃研究人员的文章时,这当然对亲 AGI 阵营没有帮助——有时被称为“现代人工智能之父”。如果 AGI 阵营中的许多人认为自己是 AI 的火炬手,那么在其外部的许多人则认为他们是拿着卡片的疯子,将关于 AI 的想法投入搅拌机,疯狂地声称奇点(当自我改进的机器超过人类智能)、大脑上传、超人类主义和启示录。

“关于智能的非常有趣的讨论并不困扰我,我们应该有更多的,”托格利乌斯说。“我对我们的软件有一天会突然醒来并接管世界的荒谬想法感到困扰。”

为什么这有关系?

几十年前,当人工智能未能达到明斯基和其他人的炒作时,该领域不止一次崩溃。资金消失了;研究人员继续前进。这项技术花了很多年才从所谓的“人工智能冬天”中脱颖而出并重新确立自己的地位。不过,这种炒作仍然存在。

“所有的 AI 寒冬都是由不切实际的期望造成的,因此我们需要时时刻刻都在与这些期望作斗争,”Ng 说。Pesenti 同意:“我们需要控制嗡嗡声,”他说。

更直接的担忧是,这些不切实际的期望会影响决策者的决策。布赖森说,她在董事会和政府中目睹了很多头脑混乱的想法,因为那里的人对人工智能有科幻的看法。这可能会导致他们忽略非常真实的未解决问题——例如 种族偏见可以 通过倾斜的训练数据编码到 AI 中的方式,算法如何工作缺乏透明度,或者当 AI 做出错误决定时谁负责的问题——赞成对机器人收购之类的事情产生更多幻想。

炒作也让投资者兴奋不已。马斯克的资金帮助资助了真正的创新,但当他说他想资助研究存在风险的工作时,它鼓励研究人员谈论遥远的未来威胁。“他们中的一些人真的相信;他们中的一些人只是追求金钱和注意力以及其他任何东西,”布赖森说。“而且我不知道他们是否都对自己完全诚实,他们是哪一个。”

AGI 的魅力不足为奇。自我反省和创造是最人类的两项活动。以我们的形象制造机器的动力是不可抗拒的。许多现在批评 AGI 的人在他们早期的职业生涯中都曾与它调情。像 Goertzel 一样,Bryson 花了几年时间试图制造一个人造幼儿。2005 年,Ng 在全球主要的 AI 会议 NeurIPS(当时称为 NIPS)组织了一场研讨会,题为“Towards human-level AI?”。“这太疯狂了,”吴说。现在经常批评 AGI 喋喋不休的 LeCun 发表了主题演讲。

这些研究人员转向了更实际的问题。但由于他们和其他人取得的进展,期望再次上升。“该领域的很多人都没有预料到我们在过去几年中取得了如此大的进步,”Legg 说。“这是使 AGI 更加可信的驱动力。“

即使是 AGI 怀疑论者也承认,这场争论至少迫使研究人员考虑该领域的整体方向,而不是专注于下一个神经网络黑客或基准测试。“认真考虑 AGI 的想法会带我们去真正迷人的地方,”Togelius 说。“也许最大的进步将是完善梦想,试图弄清楚梦想的全部内容。”

www.AIGC00.com

© 版权声明

相关文章