可解释的AI如何帮助算法避免偏差
来源:
人工智能有偏见。人类有偏见。实际上,只要我们在选择时比其他因素更重视某些因素,那么做出选择的每个人和所有事物都是有偏见的。尽管如此,尽管人工智能(当之无愧)因对某些人口统计数据(例如妇女和有色人种)有偏见而赢得声誉,但从事人工智能技术的公司在克服算法偏差方面越来越好。
主要地,他们这样做的方式是通过所谓的“可解释的AI”。在过去,甚至现在,人工智能所需要考虑的很多事情都被当作黑匣子。编码人员有意识地设计了可以从数据中学习的算法神经网络,但是一旦将其创造力发布到野外,这样的神经网络便开始运转,而程序员却无法看到究竟是什么使他们按照自己的方式行事。因此,直到为时已晚,公司才发现自己的AI有偏见。
幸运的是,这一切都在改变。越来越多的初创公司和公司正在围绕可解释和可解释的AI提供解决方案和平台。其中最有趣的之一是Fiddler Labs。它位于旧金山,由前Facebook和三星工程师创立,为公司提供了一个AI引擎,使所有与决策相关的因素可见。正如联合创始人兼CPO阿米特·帕卡(Amit Paka)告诉我的那样,其软件使AI模型的行为透明且易于理解。
例如,Paka解释了可解释的AI如何改善银行使用的基于AI的信用贷款模型。他说:“在确定特定应用程序的信用决策时,需要考虑很多输入(例如年收入,FICO得分等)。在没有Fiddler的传统环境中,很难或几乎不可能说出每个输入如何以及为什么影响结果。”
但是,有了可解释的AI,银行现在可以“将每个投入的影响百分比分配给产出。在这种情况下,一个例子可能是年收入对产出的正面影响为20%,而FICO评分对产出的负面影响为15%。 ”
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。