您现在的位置是:首页 > 科技 > 正文

人工智能系统使用透明的 类似人的推理来解决问题

发布时间:2024-06-29 08:06:49来源:

导读 向孩子呈现各种形状的图片,并要求他们找到大红色圆圈。为了得出答案,她经历了几个推理步骤:首先,找到所有大事; 接下来,找到红色的

向孩子呈现各种形状的图片,并要求他们找到大红色圆圈。为了得出答案,她经历了几个推理步骤:首先,找到所有大事; 接下来,找到红色的大事; 最后,选择一个大圆圈的红色东西。

我们通过理性学习如何解读世界。那么,神经网络也是如此。现在,麻省理工学院林肯实验室的情报和决策技术小组的一个研究小组开发了一个神经网络,可以执行类似人类的推理步骤来回答有关图像内容的问题。该模型被命名为透明设计网络(TbD-net),在解决问题时可视化地呈现其思维过程,使人类分析师能够解释其决策过程。该模型比当今最好的视觉推理神经网络表现更好。

了解神经网络如何做出决策一直是人工智能(AI)研究人员长期面临的挑战。正如其名称的神经部分所暗示的那样,神经网络是大脑启发的AI系统,旨在复制人类学习的方式。它们由输入和输出层以及介于两者之间的层组成,将输入转换为正确的输出。一些深度神经网络变得如此复杂,以至于几乎不可能遵循这种转换过程。这就是为什么它们被称为“黑匣子”系统,它们的内部完全不透明,甚至是构建它们的工程师。

使用TbD-net,开发人员的目标是使这些内部工作变得透明。透明度很重要,因为它允许人类解释AI的结果。

重要的是要知道,例如,在自动驾驶汽车中使用的神经网络究竟是什么意思是行人和停车标志之间的区别,并且在其推理链的哪一点上看到了这种差异。这些见解允许研究人员教授神经网络来纠正任何不正确的假设。但TbD-net开发人员表示,目前最好的神经网络缺乏有效的机制,使人们能够理解他们的推理过程。

“在提高视觉推理性能方面取得的进展是以可解释性为代价的,”Ryan Soklaski说道,他与研究员Arjun Majumdar,David Mascharka和Philip Tran建立了TbD-net。

林肯实验室小组能够缩小与TbD-net的性能和可解释性之间的差距。他们系统的一个关键是“模块”的集合,这些小型神经网络专门用于执行特定的子任务。当向TbD-net询问关于图像的视觉推理问题时,它将问题分解为子任务并分配适当的模块以实现其部分。就像装配线上的工人一样,每个模块都会在模块出现之前构建模块,最终产生最终的正确答案。总的来说,TbD-net利用一种AI技术来解释人类语言问题并将这些句子分解为子任务,然后是多种解释图像的计算机视觉AI技术。

Majumdar说:“将一系列复杂的推理分解为一系列较小的子问题,每个子问题都可以独立解决并组成,是一种强大而直观的推理手段。”

每个模块的输出在视觉上以组称为“注意掩码”的方式描绘。注意掩码显示模块识别为其答案的图像中的对象上的热图blob。这些可视化使人类分析师能够看到模块如何解释图像。

举例来说,对TbD-net提出以下问题:“在这张图片中,大金属立方体的颜色是什么?”为了回答这个问题,第一个模块仅定位大型物体,产生一个注意面具,突出显示那些大型物体下一个模块接受这个输出并找出前一个模块中识别为大的那些对象中的哪些也是金属的。该模块的输出被发送到下一个模块,该模块识别哪些大的金属对象也是一个立方体。最后,这个输出被发送到一个可以确定对象颜色的模块.TbD-net的最终输出是“红色”,这个问题的正确答案。

经过测试,TbD-net取得的成绩超过了性能最佳的视觉推理模型。研究人员使用视觉问答数据集评估了该模型,该数据集包括70,000个训练图像和700,000个问题,以及15,000个图像和150,000个问题的测试和验证集。初始模型在数据集上实现了98.7%的测试精度,据研究人员称,这远远优于其他神经模块网络方法。

重要的是,研究人员能够改善这些结果,因为他们的模型的关键优势 - 透明度。通过查看模块产生的注意面具,他们可以看到出错的地方并改进模型。最终结果是最先进的99.1%准确度。

“我们的模型在视觉推理过程的每个阶段都提供了直观,可解释的输出,”Mascharka说。

如果要将深度学习算法与人类一起部署以帮助解决复杂的现实任务,那么可解释性尤其有用。为了在这些系统中建立信任,用户需要能够检查推理过程,以便他们能够理解模型为何以及如何做出错误的预测。

智能与决策技术集团的负责人Paul Metzger表示,这项研究“是林肯实验室致力于成为应用机器学习研究和人工智能的世界领导者,促进人机协作的一部分。”

标签:

上一篇
下一篇