为什么人类是对抗AI偏见的关键
人工智能(AI)曾经是科幻小说中的东西。但是今天,它以聊天机器人,语音助手甚至Google Maps的形式融入了我们的日常体验。实际上,根据Statista的说法,现在84%的全球商业组织都相信AI将为其带来竞争优势。
AI可能很普通(至少在简单的水平上),但是将其发展到成熟则更加难以捉摸。训练机器以学习,响应并像人类一样操作,需要在无数种情况下输入大量数据。
对于组织来说,面对许多潜在的问题,仅对其进行管理是很困难的。最常见,也可能最危险的是数据偏差问题。如果组织计划在AI方面表现出色,那么应对这种偏见就应该是其首要任务。否则,公司会冒该算法传递错误结果的风险,并有可能疏远大部分客户。
解决此问题的第一步是首先了解算法是如何变得有偏见的。每个开发人员(就此而言,每个人)都有意识和无意识的偏差会影响其最初的开发,并且由于算法的智能程度仅与训练数据一样聪明,因此这可能会成为危险的先例。不良数据有可能导致有偏见的AI做出积极损害人民和人群的决策。但是,尽管人类是所有偏见的根源,但它们也是消除偏见的关键。
当今的消费者希望AI变得更自然,更人性化,但是要实现这一点,算法中输入的数据必须更能代表现实世界。
从真实的人那里大规模地收集各种培训数据是这样做的方法。使用经过审查的,覆盖多个国家,年龄,性别,种族,文化,政治派别,意识形态,社会经济和教育水平等的全球社区,组织可以验证其算法正在产生准确的,类似于人类的,真正有用的结果。这适用于获取训练数据的基准集,以及正在进行的数据收集,因此建议引入允许连续反馈和修改的结构。
可能是某些用户报告了产品某些方面的问题,例如语音或面部识别,然后可以将此反馈合并到算法的下一个版本中,以供将来的用户使用。
现实情况是,尽管技术实施无限,但AI只能和编写它的人一样出色。当我们考虑每个人的所有有意和无意偏见时,这会引起很多问题。在某种程度上,人工智能中总会存在偏差,但是通过在发布之前收集实际的人为互动,企业可以训练其算法并获得可为客户提供真正价值的结果。
我们已经达到了AI开始影响支配我们社会个人和集体未来的决策的地步,因此开发这些算法的公司必须发挥积极作用,以使AI更好地反映社会,并让所有人更加公平。