你还记得你妈妈告诉你不要用手吃饭吗?你会说,“为什么?”她会说:“因为我说过!”
简而言之,这就是AI中的可解释性问题。当然,出于尊重(也许是恐惧),你没有质疑你母亲的权威。但是“因为是我说的!”人工智能模型以一种不透明的方式对关键决策做出了充分的回答,而没有解释遵循它们的原因——尤其是在我们不想完全委托决策的领域?
当自动驾驶控制与遥测和其他类型的传感器结合使用,使飞机飞入地形时,或者对于波音737MAX来说,当它进入地面时,会引起问题。当涉及难以解释的算法的结论路径如此不透明时,它们可能会导致灾难性的后果,或者更有可能的是,数百万个小的错误决定将被累加起来。我该怎么办?从道德上讲,这也是责任、安全、责任的要求。
机器学习(ML)模型非常简单;他们只是重复得很快。他们做的最复杂的事情是支持回归或聚类的矩阵代数。在前一种情况下,他们查看大量数据,并试图找到趋势或预测变量。在集群中,他们试图找到属于一起的东西。最常见的技术是最大化或最小化“成本”功能,例如“次优选择”。
然而,AI不仅仅是简单的ML。神经网络及其推论(深度学习)特别难理解,它们以戏剧性的方式影响人们的应用,比如面部识别和自然语言处理(Alexa在听你说话)。另一方面,贝叶斯网络更容易解释,但部署频率不高,因为它们只谈概率,很少有人知道如何用概率来管理。
解释性有几个不同的要素:
数据好吗?如今,无法保证AI使用的数据是原始数据。每个建模者都知道这一点。正如特里法塔和CSO联合创始人乔赫勒斯坦(Joe Hellerstein)最近告诉我的那样,解决方案的一部分是“关注”。换句话说,我们使用普通的数据分析,并使用自动化工具来检查不一致、数据漂移、数据丢失——这是我们多年来一直在做的事情。然而,由于数量、速度和复杂性,需要人工智能驱动的工具来增加数据的质量。
在设计机器学习模型时,需要解释其逻辑,以不需要方程就能以散文形式阅读的方式记录下来,并附上可能出现的偏差清单,由指定人员进行审核。
需要仔细评估模型所学习到的偏差,以便AI开发者和其他利益相关者能够理解和验证其决策依据。
标签: