人工智能(AI)能否判断你的情绪状态,如快乐、悲伤、愤怒或沮丧?据提供AI情感识别软件的技术公司声称,答案是肯定的。
然而,这一说法与不断增加的科学证据不符。此外,情感识别技术还存在一系列法律和社会风险,尤其是在工作场所使用时更为明显。因此,欧盟的AI法案于8月生效,禁止在工作场所使用AI系统推断人的感情状态——除非出于医疗或安全原因。
然而,在澳大利亚,目前尚未对这些系统进行具体监管。我在最近一轮关于高风险AI系统的澳大利亚政府咨询中提出了这一观点,并强调需要对此进行改变。
情感识别技术的新趋势全球基于AI的情感识别系统市场正在增长。
2022年该市场的价值为340亿美元,并预计到2027年将达到620亿美元。这些技术通过分析生物数据(如心率、皮肤湿度、语音音调、手势或面部表情)来预测一个人的情绪状态。明年,澳大利亚科技初创公司inTruth Technologies计划推出一款腕戴设备,声称可以通过心率和其他生理指标实时追踪佩戴者的情绪。
inTruth Technologies的创始人Nicole Gibson表示,这项技术可以用于雇主监控团队的表现和能量水平,甚至预测如创伤后应激障碍等问题。
她还表示,inTruth可以成为一种了解你一切情况的AI情感教练。澳大利亚工作场所的情感识别技术
目前缺乏关于澳大利亚工作场所部署情感识别技术的数据。
然而,我们知道一些澳大利亚公司曾使用美国公司HireVue提供的基于视频面试系统的人脸情绪分析功能。该系统通过面部动作和表情评估求职者的适合度。例如,求职者是否表现出兴奋或如何回应愤怒的客户都会被评估。
HireVue在2021年因美国正式投诉而从其系统中移除了情绪分析功能。随着澳大利亚雇主接受基于人工智能的工作场所监控技术,情感识别技术可能再次兴起。
缺乏科学依据
诸如inTruth这样的公司声称情感识别系统是客观且基于科学方法的。
然而,学者们对这些系统的担忧在于它们重新回到了被遗弃的颅相学和相面学领域——即通过一个人的身体特征或行为来判断其能力与性格。情感识别技术严重依赖于内情绪可测量且普遍表达的理论。
然而,最近的研究表明,在不同文化、情境和个人之间如何表达情绪存在广泛差异。例如,在2019年的一份专家报告中得出结论:没有单一的客观指标或模式能够可靠地、独特地且可复制地识别情绪类别。
例如,某人在愤怒时皮肤湿度可能会上升、下降或保持不变。InTruth Technologies创始人Nicole Gibson在接受《对话》采访时说:“确实,在过去情感识别技术面临重大挑战。
”但她补充道:“近年来这一领域发生了显著变化。”侵犯基本权利
没有正当理由的情况下,情感识别技术也侵犯了基本权利。
它们被发现根据种族、性别和残疾等因素进行歧视。在一项案例中,一种情感识别系统将黑人面孔误读为比白人面孔更愤怒的表情——即使两者都以相同的程度微笑。此外,这些技术可能对未被训练数据代表的人口群体不够准确。
Gibson承认了对情感识别技术偏见的关注,并补充说:“偏见不是源于这项技术本身而是源于用于训练这些系统的数据集。”她表示inTruth致力于通过使用多样化的包容性数据集解决这些问题。作为监控工具的情感识别系统在工作场所对隐私权构成了严重威胁。
如果未经授权收集敏感信息,则会侵犯隐私权;如果收集此类数据并非出于合理必要或以公平方式进行,则同样会侵犯隐私权。员工观点
今年早些时候发布的一项调查显示,在澳大利亚成年人中仅有12.9%支持在工作场所使用基于面部的情绪识别技术。
研究者得出结论认为受访者认为面部分析是侵入性的。受访者还认为这项技术不道德且极易出错和存在偏见。一项今年发布的美国研究也表明员工担心情绪识别系统会损害他们的身心健康并影响工作表现。
他们担心不准确可能导致错误的印象,并可能因此失去晋升机会或加薪甚至被解雇。正如一位参与者所说:“我实在看不出这如何能对职场中的少数群体有任何好处。
”