数据-您在科学文章,历史书或一组调查结果中找到的信息-似乎只是客观事实的集合。如果数字来源合理,应该被认为是观点,观点或偏见所掩盖的硬道理。实际上,这种情况很少发生。这就是AI可以像人类创造它一样受到偏见的方式。

数据仅与用于获取数据的手段,用于解释和分析数据的方式以及如何进行通信一样好。

这些方面的误区会过滤掉我们根据数据得出的结论-并经常导致我们希望我们的“事实”避免的主观性和偏见。

即使是像调查这样简单的事情,也有许多因素(从问题的措辞到我们定义术语的方式以及我们评估形成判断的样本集的方式)可能会给我们的数据带来偏差。偏差会影响我们得出的结论。

“我知道有一句谚语说:“犯错是人的本能,但人为的错误与计算机尝试执行的操作无关。”—阿加莎·克里斯蒂(Agatha Christie)

缺乏人类感觉,意识形态和偏好的自动化系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。但是,人类必须设计和构建这些系统,这使它们面临同样的陷阱。

事实仍然是,人工智能的偏见已成为一个广泛的问题,以至于Salesforce最近在其教育平台Trailhead中增加了一个人工智能偏见课程,以向企业家和其他专业人员传授同质数据的危险。

AI偏见的后果

自动化系统中的偏差已经对某些群体产生了不利影响。例如,威斯康星州试图在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。

不幸的是,该计划对有色人种有偏见,并错误地将黑人标记为比白人更容易犯下另一项罪行。

同行评审研究如何?

在另一个案例中,一项经过同行评审的研究确定,亚马逊的面部识别技术很难识别肤色较深的女性和个体。这怎么发生的?训练集(输入到系统中以教授AI编程的示例数据)缺乏多样性。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。