这是一个令人不安的事实。一辆在交通道路上行驶的自动驾驶汽车和一辆超速行驶的汽车交织在一起,与一个刚刚学会走路的孩子相比,他不太清楚什么会导致事故。
一项新的实验表明,即使在最好的人工智能系统中,掌握基础物理及其因果关系也是多么困难。它还提供了一种构建人工智能系统的方法,从而理解事情发生的原因。
麻省理工学院大脑思维和机器中心教授乔希特南鲍姆(Josh Tenenbaum)表示,这项实验的目的是“超越模式识别”。他与麻省理工学院的研究员创干和博士生科新一起参与了这个项目。在哈佛。“大型科技公司希望拥有能够执行此类操作的系统。”
近年来,最受欢迎的前沿AI技术深度学习取得了惊人的进步,激发了人们对AI潜力的兴奋。它包括提供大量的近似神经网络训练数据。深度学习算法通常可以在数据中精巧地发现模式,从而实现令人印象深刻的图像和语音识别功能。但是它们缺少对人类来说微不足道的其他功能。
为了证明这个缺点,Tenenbaum和他的合作者为AI系统建立了一个智能测试。它包括向人工智能程序显示一个简单的虚拟世界,里面充满了一些移动的物体,以及关于场景和正在发生的事情的问答。而且问题和答案都有标签,类似于AI系统如何通过显示数百张标有“猫”的图像来学习识别猫。
使用先进机器学习的系统显示出很大的盲点。问了一个描述性的问题,比如“这个物体是什么颜色?”高级AI算法在90%以上的时间内都是正确的。然而,当你问更复杂的场景问题时,比如“是什么导致球与立方体碰撞?”。或者“如果没有碰撞会发生什么?”同一个系统只能答对10%左右的时间。
参与这项工作的麻省理工学院-IBM Watson AI实验室IBM总监David Cox表示,理解因果关系对于AI来说非常重要。“作为人类,我们有能力对因果进行推理,我们需要有一个能够做到这一点的人工智能系统。”
缺乏对因果关系的理解也会产生实际后果。机器人能够越来越多地感知附近的物体,以便捕捉或移动它们。但是他们不知道触摸某个东西会导致它掉落或断裂,除非它是经过特殊编程的,并且不能预测所有可能的情况。
然而,如果机器人能够进行因果推理,它可能能够避免尚未被编程理解的问题。无人驾驶汽车也是如此。它本能地知道,如果卡车要转弯,撞到障碍物,它的货物可能会洒在路上。
因果推理对几乎所有的人工智能系统都很有用。接受医学信息而不是3D场景培训的系统需要知道疾病的原因和可能的干预措施的可能结果。因果推理越来越受到许多人工智能杰出人物的关注。考克斯说:“这些都促进了AI系统的发展,AI系统不仅可以学习,还可以推理。”
卡耐基梅隆大学负责因果推理和机器学习的助理教授张坤说,Tenenbaum设计的测试非常重要,因为尽管它处于非常有限的环境中,但它提供了一个很好的方法来衡量因果理解。他说:“更通用的AI系统的开发将极大地受益于因果推理和表达学习的方法。”
Tenenbaum和他的同事不仅展示了现有人工智能程序的弱点,还构建了一种新型的人工智能系统,可以理解因果关系,在智力测试中得分更高。他们的方法结合了几种人工智能技术。该系统使用深度学习来识别场景中的对象。它的输出被输入到构建场景的3D模型和物体如何交互的软件中。
标签: