本文是我们对AI研究论文的评论的一部分,AI研究论文是一系列探讨人工智能最新发现的文章。

深度学习是过去几年中重新引起人们对人工智能兴趣的主要创新,它帮助解决了计算机视觉,自然语言处理和语音识别中的许多关键问题。然而,随着深度学习的成熟和从炒作高峰到幻灭低谷的转变,越来越明显的是它缺少一些基本组成部分。

在过去的一年中,许多深度学习的先驱及其主要组成部分人工神经网络都承认了这一现实。三个“深度学习的教父” Geoffrey Hinton,Yann LeCun和Yoshua Bengio,都谈到了神经网络的局限性。

问题是,前进的道路是什么?

Bengio在NeurIPS 2019上讨论了系统2深度学习,这是一种新一代神经网络,可以处理组合性,无序分布和因果结构。在AAAI 2020大会上,Hinton讨论了卷积神经网络(CNN)的缺点以及向胶囊网络发展的需求。

但是对于认知科学家加里·马库斯(Gary Marcus)而言,解决方案在于开发将神经网络与象征性人工智能相结合的混合模型,后者是在深度学习兴起之前主导领域的AI分支。在题为“人工智能的下一个十年:迈向强大的人工智能的四个步骤”的论文中,马库斯讨论了混合人工智能如何解决当今深度学习面临的一些基本问题。

纯粹基于神经网络方法的支持者,连接主义者拒绝任何象征性AI的回归。欣顿将混合人工智能与电动机和内燃机相结合。Bengio还多次回避了混合人工智能的想法。

但是马库斯认为,前进的道路在于抛弃古老的竞争,将两全其美的力量融合在一起。

深度神经网络中缺少什么?

深入讨论了深度学习的局限性。但是在这里,我想对知识进行概括,这是过去几个月来已广泛讨论的话题。虽然人类级AI至少需要数十年的时间,但更接近的目标是强大的人工智能。

这是Marcus定义健壮的AI的方式:“这种智能,虽然不一定是超人的或自我完善的,但可以依靠它以系统和可靠的方式将其所知道的知识应用到广泛的问题上,从各种来源综合知识它可以灵活,动态地对世界进行推理,以一种我们对普通成年人所期望的方式,将它在一个环境中学到的东西转移到另一环境中。”

这些是当前深度学习系统缺少的关键功能。深度神经网络可以吸收大量数据并利用巨大的计算资源来解决非常狭窄的问题,例如检测特定种类的对象或在特定条件下玩复杂的视频游戏。

但是,他们在总结自己的技能方面很不好。“如果环境与受训的环境有所不同,有时甚至是微小的差异,我们通常就不能指望它们,” Marcus写道。

恰当的例子:经过数千张椅子图片训练的AI如果训练数据集中未包含上翘的椅子,将无法识别该椅子。经过数万小时的《星际争霸2》游戏训练的超级强大AI可以在冠军级别上玩,但只能在有限的条件下进行。更改地图或游戏中的单位后,其性能将急剧下降。而且它不能玩任何与《星际争霸2》类似的游戏,例如《魔兽争霸》或《命令与征服》。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。