人们忽视了人工智能情感识别中潜藏的种族偏见
总结:一项新研究表明,多数人无法识别人工智能系统中潜藏的种族偏见,即便它在训练数据中显而易见。研究显示,基于不均衡数据集(如开心的白人面孔和悲伤的黑人面孔)训练的人工智能,会将种族与情感联系起来,致使偏见持续存在。
参与者很少留意到这些偏见,除非他们属于被负面描绘的群体。研究结果凸显了提高公众意识、人工智能素养,以及算法训练和评估透明度的必要性。
关键事实:
- 隐藏偏见:基于种族不均衡数据训练的人工智能会错误分类情感,常将白人面孔描绘得比黑人面孔更开心。
- 人类盲点:多数用户未察觉到人工智能数据集中的偏见,即便其并非中立时仍信任它。
- 群体敏感度:只有来自被负面描绘种族群体的参与者更易察觉偏见。
来源:宾夕法尼亚州立大学
在识别面孔和情感时,人工智能可能存在偏见,比如将白人归类为比其他种族背景的人更开心。这是因为用于训练人工智能的数据中,开心的白人面孔数量过多,使其将种族与情感表达关联起来。
在近期发表于《媒体心理学》的一项研究中,研究人员让用户评估此类有偏差的训练数据,但多数用户未注意到偏见——除非他们属于被负面描绘的群体。
该研究旨在探究外行人士是否明白,用于训练人工智能系统的不具代表性的数据会导致有偏差的表现。
研究此问题五年的学者表示,人工智能系统的训练应使其“为所有人服务”,产生对所有群体而非仅一个多数群体而言多样且具代表性的结果。
研究人员称,这包括理解人工智能从训练数据中意外关联中学到了什么——即输入系统以教导其未来预期表现方式的数据集。
“在本研究中,人工智能似乎学到了种族是判断一张面孔是开心还是悲伤的重要标准,”资深作者、宾夕法尼亚州立大学埃文·普格大学教授兼社会责任人工智能中心主任S. 希亚姆·桑达尔说,“即便我们并非有意让它这样学。”
问题在于人类能否识别训练数据中的这种偏见。研究人员称,在他们的实验中,多数参与者直到人工智能表现出偏见时才开始注意到,比如对黑人个体的情感分类错误,而对白人表达的情感分类准确。
黑人参与者更可能怀疑存在问题,尤其是当训练数据过度呈现他们自己群体表达负面情感(悲伤)的情况时。
“在一个呈现种族偏见人工智能表现的实验场景中,系统未能准确分类少数群体图像的面部表情,”第一作者、俄勒冈州立大学新兴媒体与技术助理教授郑(克里斯)·陈说,她在宾夕法尼亚州立大学唐纳德·P. 贝利斯ario传播学院获得大众传播学博士学位。
“这就是我们所说的人工智能系统中的偏见表现,即系统在分类时偏袒主导群体。”
陈、桑达尔及共同作者、贝利斯ario学院大众传播学博士生张恩彩创建了12个版本的人工智能系统原型,用于检测用户的面部表情。
在三项实验中,研究人员对769名参与者进行测试,以探究用户在不同场景下如何检测偏见。前两项实验的参与者来自不同种族背景,其中白人占多数。在第三项实验中,研究人员特意招募了数量相等的黑人和白人参与者。
研究中使用的图像为黑人和白人个体。第一项实验向参与者展示了某些分类类别中种族的偏差呈现,比如开心或悲伤图像在不同种族群体中分布不均。开心面孔大多是白人,悲伤面孔大多是黑人。
第二项实验展示了训练数据中某些种族群体缺乏充分代表性的偏见。例如,参与者在开心和悲伤类别中看到的只有白人主体图像。
在第三项实验中,研究人员将前两项实验的刺激物与其反例一同呈现,产生了五种情况:开心的黑人/悲伤的白人;开心的白人/悲伤的黑人;全是白人;全是黑人;以及无种族混淆,即不存在情感与种族的潜在混合。
对于每项实验,研究人员询问参与者是否认为人工智能系统平等对待每个种族群体。研究人员发现,在这三种场景中,多数参与者表示未注意到任何偏见。在最后一项实验中,与白人参与者相比,黑人参与者更可能识别出种族偏见,且通常只有在涉及黑人不开心图像时才会如此。
“我们惊讶地发现,人们未能认识到种族和情感相互混淆,即一种种族比其他种族更可能在训练数据中代表某种特定情感——即便它就在他们眼前,”桑达尔说,“对我而言,这是该研究最重要的发现。”
桑达尔补充说,这项研究更多关乎人类心理学而非技术。他说人们常常“信任人工智能是中立的,即便它并非如此”。
陈表示,人们无法检测训练数据中的种族混淆会导致依赖人工智能的表现进行评估。
“表现中的偏见极具说服力,”陈说,“当人们看到人工智能系统存在种族偏见的表现时,他们会忽略训练数据的特征,基于有偏差的结果形成认知。”
未来研究计划包括开发并测试更好的方法,向用户、开发者和政策制定者传达人工智能中固有的偏见。研究人员表示,他们希望通过专注于提高媒体和人工智能素养,继续研究人们如何感知和理解算法偏见。
回答的关键问题:
- 问:关于人工智能和种族偏见的研究主要发现是什么? 答:多数人无法检测基于有偏差数据训练的人工智能系统中的种族偏见,凸显了算法偏见有多微妙且易被忽视。
- 问:为何人工智能情感识别中会出现这种偏见? 答:人工智能模型常从训练数据中学习到意外关联——比如因示例不均衡,如开心的白人面孔和悲伤的黑人面孔更多,而将种族与情感联系起来。
- 问:人工智能种族情感识别偏见对社会为何重要? 答:它表明人们过于轻易信任人工智能,且常忽略种族偏见,除非它直接影响到他们,强调了公众教育及人工智能系统中更好的偏见检测的必要性。
作者:弗朗西斯科·图特拉
来源:宾夕法尼亚州立大学
联系方式:弗朗西斯科·图特拉——宾夕法尼亚州立大学
图片:图片来源为神经科学新闻
人工智能训练数据中的种族偏见:外行人士能注意到吗?
为回答这个问题,我们针对一个识别基于情感的面部表情的人工智能系统原型,进行了三项被试间在线实验(共769人)。
当训练数据中用于表示不开心情绪的所有面部图像都是黑人个体时,黑人参与者会觉得该系统更有偏见。
订阅我们的时事通讯 感谢订阅。 出了点问题。 我同意将我的个人信息转移给AWeber以获取神经科学时事通讯(更多信息) 注册以接收我们每天发送到您电子邮件的最新神经科学头条和摘要,完全免费。 我们讨厌垃圾邮件,仅使用您的电子邮件与您联系时事通讯相关事宜。您可随时取消订阅。