AI的可解释性问题我们可以克服吗
您还记得母亲曾告诉您不要用手吃饭吗?你会说:“为什么?”她会说:“因为我这么说!”
简而言之,这就是AI中的可解释性问题。当然,出于尊重(也许是恐惧),您没有质疑母亲的权威。但是是“因为我说了!”AI模型以不透明的方式做出关键决策的充分答案,而没有解释遵循的理由-特别是在我们不想完全委托决策的领域?
当自动驾驶仪控制与遥测和其他类型的传感器配合使用,使飞机飞入地形时,或者对于波音737MAX,它进入地面时,就会引发问题。当涉及到难以解释的算法而得出结论的路径如此不透明时,它们可能导致灾难性的后果,或者更有可能导致数百万个小错误决定加总,该怎么做?从道德上讲,这也是责任,安全和责任的要求。
机器学习(ML)模型的工作非常简单;他们只是非常快速地重复做。他们做的最复杂的事情是支持回归或聚类的矩阵代数。在前一种情况下,他们查看大量数据并尝试找到趋势或预测变量。在聚类中,他们试图找到属于一起的事物。最常见的技术是最大化或最小化“成本”功能,例如“次佳选择”。
但是,AI不仅仅是简单的ML。神经网络及其推断(深度学习)特别难以理解,并且它们以戏剧性的方式影响人们的应用程序,例如面部识别和自然语言处理(Alexa在听您说话)。另一方面,贝叶斯网络更容易解释,但部署频率不高,因为它们只讲概率,很少有人知道如何用概率进行管理。
解释性有几个不同的元素:
数据好吗?如今,无法保证AI使用的数据是原始数据。每个建模者都知道这一点。正如Trifacta的联合创始人兼CSO乔·赫勒斯坦(Joe Hellerstein)最近对我说的那样,部分解决方案是“关注”。换句话说,使用普通的数据分析,并借助自动化工具来检查不一致之处,数据漂移,数据丢失-我们多年来一直在做的所有事情。但是由于数量,速度和复杂性,需要使用AI驱动的工具来为数据增加一些质量。
在设计机器学习模型时,必须对其逻辑进行解释,以一种可以散文形式阅读,没有方程式的方式进行记录,并附有可能存在的偏差问题的清单,并由指定人员进行审查。
有必要对模型学习到的偏差进行仔细评估,以使AI开发人员和其他利益相关者能够理解和验证其决策依据。