AI领域,尤其是深度学习领域,正处于一个转折点。或者我们必须突破到另一面——深度学习变得更深入理解——或者继续轮换我们的集体力量,浇灌价值数万亿美元的计算,并让Alexa假装它知道你的内容并提高1%。说。
稳健公司首席执行官兼联合创始人加里马库斯。AI表示,这只是对正在发生的事情的总结。人工智能开发人员和研究人员需要增加他们的方法,然后才能实现“健壮”人工智能的任何真正进步。
阅读:英国计划用“荒谬”的自动化品牌取代移民看护者。
马库斯本周早些时候在arXiv上发表了一篇题为“人工智能的下一个十年:走向强大人工智能的四个步骤”的新论文。在这份长达55页的文件中,他总结了2019年“AI辩论”期间自己和Yoshua Bengio之间的最新争论,并进行扩展。
马库斯所说的要点可以用他认为属于脸书人工智能团队成员的单引号来概括:
越来越多的证据表明,最先进的模型已经学会在数据集中使用错误的统计模式……而不是像人类一样灵活、概括地学习意义。
换句话说,就像鸡玩井字游戏一样,AI完全不知道自己在做什么。它只是修改和重复它被编程来执行的任何操作,直到人们确定适当调整其行为的“参数”。
马库斯认为AI没有实践知识,因为它没有世界的内部模型,没有它像人一样如何工作,也没有它里面的物体如何工作。他说,处方是一种混合开发范式,结合了深度学习和认知模型方法。他写道:
我们必须重新集中精力开发一个框架,用于构建一个系统,该系统可以常规地获取、表示和操纵抽象知识,并使用这些知识来构建、更新和推理外部世界的复杂内部模型。
这种方法背离了许多初创公司、大型科技公司和致力于创造“人工智能”或超人AI的组织的“天工”。
相反,马库斯主张发展重组,在我们进入超级智能机器时代之前,将可实现的中间目标与“下一个AI”结合起来。为此,他写道:
姑且称之为稳健人工智能的新层次:虽然不一定是超人或自我完善的智能,但可以用来将所学系统可靠地应用到广泛的问题中,从各种知识中综合知识。来源,这样它就可以灵活地、动态地对世界进行推理,并以一种我们期待普通成年人的方式,把它在一个环境中学到的东西转移到另一个环境中。
问题的本质是深度学习不是人类推理的好的近似方法。在落到正确的命令上“触发”智能音箱的正确响应之前,已经摸索出几种不同的命令的人,解决了AI无法“理解”的问题。
当Google Assistant或Alexa无法处理有意义的命令但没有使用正确的措辞时,它的反应与我们按错触摸板上的按钮时没有什么不同:那里没有意义或智慧。
正如我们之前所说的,大多数设备要么只是大量数据的输出漏斗,要么像魔术师一样让人们眼花缭乱,让他们看起来像是把机器人从帽子里拉了出来。事实是,每个人都害怕的阿列克谢、GPT-2文本生成器和特尔萨的自动驾驶系统都是小把戏。
标签: