伦敦帝国学院的科学家们提出了一种新的监管框架,用于评估AI的影响,称为技术人类影响评估(HIAT)。

研究人员认为,HIAT可以识别技术进步的伦理,心理和社会风险,从选民操纵到算法判决,这种风险已经在越来越多的应用中暴露出来。

他们的想法基于环境影响评估(EIA),该评估已用于评估拟议开发项目对环境的影响已有50年了。

像环境影响一样,人工智能对人类的影响很难建模,并且常常会产生无法预料的结果。软件通常易于修改和定期更新。因此,HIAT需要成为正在进行的评估的一部分。

HIAT如何运作

研究人员建议使用现有的技术框架(例如欧盟的新AI指南)作为HIAT评估和报告的基础。

然后,将使用社会科学方法来评估人类的影响,就像在心理学中用来评估福祉的方法一样。

[阅读:五角大楼揭示了在战争中使用AI的无牙伦理原则]

每种技术还必须符合当前的技术标准。

下一步

已有的相关影响评估,例如GDPR要求的数据保护影响评估和算法影响评估(AIA),也可以纳入HIAT。

领导研究小组的帝国大学教授拉斐尔·卡尔沃(Rafael Calvo)在一份声明中说:“影响力评估是嵌入某些价值的重要工具,并且已成功用于许多行业,包括采矿,农业,土木工程和工业工程。”

“其他领域,例如制药业,也习惯于在强大的监管环境中进行创新,如果没有此框架,他们的产品将很难获得信任。随着AI的成熟,我们需要像HIAT这样的框架,以使市民充满信心,相信这项强大的新技术将对所有人都有利。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。