-
歧视风险
科技前沿:声称"阅读"情绪的 AI 系统存在歧视风险,你们怎么看?
一起来关注下这个观点!
一系列公司一直在部署面部识别技术,声称可以检测情绪。照片:伊塞塞克/盖蒂图片/iStockphoto
人工智能(AI)系统,公司声称可以"阅读"面部表情是基于过时的科学和风险不可靠和歧视性,世界领先的情绪心理学专家之一警告说。
东北大学心理学教授丽莎·费尔德曼·巴雷特说,这种技术似乎忽视了越来越多的证据,破坏了基本面部表情在文化中普遍存在的观点。因此,她说,这些技术——其中一些已经部署在现实世界中——有不可靠或歧视性的风险。
她说:"我不知道当证据真正清楚时,公司如何能够继续证明他们在做什么。"有些公司只是继续声称事情不可能是真的。
她发出这一警告之际,这种系统正在针对越来越多的应用推出。今年10月,联合利华声称,去年它通过部署此类软件来分析视频面试,节省了10万小时的人力招聘时间。
AI系统由公司HireVue开发,扫描候选人的面部表情、肢体语言和单词选择,并交叉引用他们认为与工作成功相关的特征。
亚马逊声称自己的面部识别系统,Rekognition,可以检测出七种基本情绪——快乐、悲伤、愤怒、惊讶、厌恶、平静和困惑。据报道,欧盟正在试用一种软件,据称该软件可以通过分析微表情来检测欺骗行为,以加强边境安全。
费尔德曼·巴雷特说:"根据已经公布的科学证据,我们的判断是,(这些技术)不应该推出,而应该用来对人们的生活做出相应的决定。
费尔德曼·巴雷特在美国科学促进协会在西雅图举行的年会上发表演讲前说,20世纪60年代,美国心理学家保罗·埃克曼(Paul Ekman)在巴布亚新几内亚开展一项研究表明,一个孤立的部落成员在被要求匹配人们展示不同面部表情的照片时,对美国人给出了类似的答案。场景,如"鲍比的狗死了"。
然而,越来越多的证据表明,除了这些基本的成见之外,人们表达情感的方式范围很大,包括文化间还是文化内部。
她说,在西方文化中,人们只有大约30%的时间在生气的时候皱眉,这意味着他们大约70%的时间以其他方式移动脸。
"可靠性很低,"费尔德曼·巴雷特说。"人们经常在不生气时皱眉头。这就是我们所说的低特异性。当人们非常努力地集中注意力时,当你讲一个坏笑话时,当他们有汽油的时候,他们就皱起了眉头。
她说,在马来西亚,这种被认为因恐惧而普遍表达的表达方式,是威胁或愤怒面孔的刻板印象。文化内部在人们表达情感的方式方面也存在很大差异,而身体语言和与人交谈的语境至关重要。
她说:"AI接受训练时,很大程度上是假定每个人都以同样的方式表达情感。"有非常强大的技术被用来回答非常简单的问题。
作者:Hannah Devlin
来源:heguardian.com
以上由AI翻译完成
扫一扫 加微信
hrtechchina