欢迎光临
我们一直在努力

这可能是今年最硬核的AI交流会,李飞飞、图灵奖得主Pearl等共同探讨AI未来

来源:量子位

晓查 编译整理 

量子位 报道 | 公众号 QbitAI

一年前,常批评深度学习的Gary Marcus与深度学习三巨头之一的Yoshua Bengio,进行了一场2个小时的AI辩论会,总共吸引了3万人在线观看。

今年,Marcus又一次发起了辩论。

虽然今年Bengio没有出席,但是却集结了李飞飞、图灵奖得主Judea Pearl、强化学习泰斗Rich Sutton、诺奖得主Daniel Kahneman等16位AI行业知名学者。

去年辩论的主题是大数据和机器学习能否达到通用智能。而这次大会的主题是——AI辩论2:推进人工智能。

今年16位学者每人进行了大约五分钟的演讲,全程干货满满,Marcus形容这场辩论,就像“从消防水管里喝水”。

下一代人工智能

首先做开场发言的是斯坦福大学计算机科学教授李飞飞。她谈到了所谓的AI的“北极星”,就是指引AI学科发展的事物。

李飞飞说,在过去的五十年里,“北极星”之一是科学地认识到物体识别是人类认知能力的一个关键功能。目标识别带来了AI基准突破,例如ImageNet竞赛。

而新的“北极星”是与环境的互动。

李飞飞援引Richard Held和Alan Hein于1963年所做的一项研究:“运动产生的视觉引导行为的刺激”。

研究人员在成对的新生小猫上进行了实验,其中一只小猫被允许四处走动来探索周围环境,而另一只小猫则被放到载体中移动,使它进行被动而非主动的探索。

在探索的早期阶段,被动的小猫相比主动的小猫,空间感知和协调能力下降。因此,二人得出结论,环境中的自我导向行为对于培养驾驭世界的能力是必要的。

继李飞飞之后,巴西南里奥格兰德联邦大学计算机科学教授Luís Lamb谈到了他一周前在NeurIPS上提出的“神经符号AI”(neurosymbolic AI)。

Lamb称赞了Marcus和JudeaPearl两人在神经符号学中的工作。

他说神经符号学的工作建立在Marcus《代数思维》一书中的概念之上,包括在神经网络之上操纵符号的需求。

“我们需要一种如Pearl的基于逻辑形式化和机器学习的基础方法。”

Lamb之后是Rich Sutton,DeepMind的杰出科学家,现代强化学习的奠基人。

Sutton回忆起神经科学家David Marr。他描述了Marr关于所需的三个处理层次的概念:计算理论、表示和算法、硬件实现。Sutton说,Marr对计算理论特别感兴趣,但今天人工智能中“几乎没有计算理论”。

Sutton说,像梯度下降这样的东西是“How”,而不是计算理论需要的“What”。

他认为,强化学习是智能的第一个计算理论。而其他可能的有预测编码、贝叶斯推理等等。

“人工智能需要一个公认的智能计算理论,”萨顿总结道,“RL是这方面最出色的选择。”

因果推理与AI

接下来是图灵奖得主Judea Pearl登场,他写了许多关于因果推理的书,包括畅销书《The Book of Why》。他的演讲主题为“因果关系的驯化”。

“我们正坐在一座金矿上,”Pearl指的是深度学习,“我提出了在因果革命中构建的引擎,代表了一种值得称为‘深度理解’(deep understanding)的精神状态的计算模型。”

Pearl说,深度理解是唯一能够回答”What is?” “What if?”和”If Only?”的系统。

接下来是Robert Ness,主题是“用概率规划进行因果推理”。

Ness说他认为自己是一名工程师,对建造东西感兴趣。“概率编程将是解决因果推理的关键”。

他认为,概率编程可以建立反事实推理的代理,这是因果推理的关键。他觉得这这可以解决Pearl的”What is?” 问题。

接下来是Ken Stanley,他是中佛罗里达大学的计算机科学教授。斯坦利对进化和创造力有着全面的看法。

Stanley说,虽然计算机可以解决问题,但人类做了一些计算机做不到的事情:开放式创新。

“几千年来,从火和轮子到空间站,我们一个接一个地提出想法,我们称之为开放式系统。”斯坦利说进化是一个平行的“现象系统”,它产生了智慧。

“一旦我们开始存在,就拥有了数千年的创造力。我们应该努力理解这些现象。”

紧随斯坦利之后的是Yejin Choi,华盛顿大学计算机科学的副教授。她开发了COMET系统,让GPT-2具有常识推理能力。

她以漫画《隧道里的怪物》为例。这是一部著名的视觉错觉作品,在一个有明显透视效果的隧道里画了两个生物。虽然两个实体大小完全一样,但一眼看去,二者大小悬殊。

Choi指出,这幅插图在2017年出版的《理性之谜》一书中讨论过,作为大脑如何利用背景(context)理解图像的例子。

她谈到语言的重要性,以及语言是“生成性任务的推理”。

“我们是在实时中进行推理,这将是AI前进中关键的基本挑战之一。”

Choi还说,像“GPT-4/5/6”这样未来的新语言模式还远远不够。

与神经科学的交叉

Marcus请来了斯坦福大学心理学荣誉退休教授Tversky。她认为:“所有生物都必须在空间中活动,当运动停止时,生命就结束了。”

在PPT上,Tversky谈到了人们如何做手势、做空间运动,这可以影响人们思考。

下一位演讲者是诺贝尔经济学奖得主Daniel Kahneman,也是人工智能著作《Thinking, Fast and Slow》一书的作者。

Kahneman提到了这本书中的范式“系统1和系统2思维”,一种是直觉的形式,一种是更高级的推理的形式。

Kahneman说,系统1可以包含许多非符号的东西,但说系统1是非符号系统是不正确的。系统1中有许多反事实的推理,其中一种天生的对什么是正常的感觉将支配这种推理。

加州理工学院的生物学教授Doris Tsao专注于反馈系统,她提到了早期McCulloch和Pitts关于神经元的工作。

她引用多层神经网络的反向传播说,反馈是必不可少的。理解反馈可以让人们建立更强大的视觉系统。反馈系统可能有助于理解幻觉等现象。

她对机器学习和系统神经科学之间的相互交流感到非常兴奋。

接下来是麻省理工学院的Marblestone,他以前是DeepMind的研究科学家,继续神经科学的主题。

他说,对大脑进行观察,试图抽象出一种功能理论,目前还处于非常原始的水平。神经网络的例子,如卷积神经网络,只是复制人类行为。

西雅图艾伦脑科学研究所的研究员Koch断言,“不要指望神经科学来帮助人工智能。”

他说,艾伦研究所的大规模实验揭示了大脑中的复杂性,这远远超出了深度学习中看到的任何东西。

连接体揭示了大脑不仅仅是由数百万个细胞组成的,而是由一千种不同的神经元细胞类型组成的,这些细胞类型根据表达的基因、它们发送信息的地址以及树突树突触结构的差异进行区分。

他说:“我们有高度异构的组件,与目前的超大规模集成电路硬件非常不同。”

他认为,目前的深度神经网络非常“贫乏”,激活单元增益饱和。它们中的绝大多数是前馈的,而大脑有大量的反馈。

“理解大脑需要一两个世纪,在大脑的机械基底中寻找灵感来加速人工智能是一个错误,这与人造物品的性质完全不同。”

如何看待AI的未来

在会议的结尾,Marcus让每一位参会者回答这样一个问题:

你想让AI走向何方,什么会让你开心?我们这些构建AI的人的目标是什么?

李飞飞:

作为一个科学家,我想把AI的科学知识和原理推向越来越远。我还是觉得我们所处的的AI时代像是前牛顿时代的物理。我们还在学习现象学和工程学。当我们开始理解智能的原理时,将会有一系列的时刻。

作为一名公民,我希望这是一项能够以理想主义的方式改善人类状况的技术。它是如此深刻,可能非常非常糟糕,也可能非常非常好。我希望看到以最仁慈的方式开发和部署这项技术的框架。

Rich Sutton:

要知道,AI听起来像纯技术性的东西。我同意Luis Lamb的观点,这可能是所有努力中最人性化的。

我期待着我们更多的理解,期待着一个充满不同种类的智能、增强的人和新人的世界,期待着理解、新奇和各种智能。

Judea Pearl:

我的志向很温和。我想要的是一个聪明、非常友好且超级能干的徒弟。我想理解自己,我如何思考,如何在情绪上唤起自己。

关于我自己,存在一些棘手的科学问题,我尚无法解决。例如,意识和自由意志。

如果我能制造出一种具有自由意志的机器人,那它将成为23世纪最大的科学成就,而我做出一个预测:我们将拥有它!

最后,Marcus总结说,这次大会超出了他原本的期望。

AI学术辩论会还将继续进行下去,下一次,也就是AI Debate 3将在明年同一日期于蒙特利尔举行。

(以上只是大会内容的简短摘录,如果你对完整的内容感兴趣,可前去文末链接观看。)

参考链接:

https://www.zdnet.com/article/ai-debate4-2-night-of-a-thousand-ai-scholars/

视频地址:

参会人员演讲资料:

https://montrealartificialintelligence.com/aidebate2/readings.pdf

未经允许不得转载:龙虎娱乐_龙虎娱乐在线_龙虎娱乐官方网站 » 这可能是今年最硬核的AI交流会,李飞飞、图灵奖得主Pearl等共同探讨AI未来