华人在澳求职好难!AI系统听不懂中文口音,错误率高达22%
AI招聘系统正在深刻改变就业市场,为雇主提供了一种更快捷且经济的筛选候选人 的方式。 然而,墨尔本法学院研究员Natalie Sheard的最新研究警告,这些系统可能无意中 加剧对女性、残疾人及多元文化申请者的歧视。
(图片来源:News)
目前,约30%的澳洲企业使用AI招聘工具,预计未来几年这一比例将继续上升。
这 些系统通过算法筛选简历、评估候选人回答,并对其适合性进行排名,提高筛选效 率。然而专家指出,AI系统可能无意间将部分人群排除在就业市场之外。
研究还发现,AI工具常因就业空白对候选人作出负面评估,而女性因育儿或医疗休 假而造成的空白受影响尤大。
研究还发现,视频面试中使用的语音转文字工具在应 对非英语母语者时表现不佳。
以中文非英语母语者为例,其错误率飙升至惊人的22%,而美国英语母语者的错误 率则低于10%。
Sheard指出,训练这些AI系统的数据多来自美国,无法反映澳洲人 口多样性。
(图片来源:News)
报告指出,“虽然AI招聘系统为雇主节省了时间和成本,改善了招聘质量与候选人 体验,但它们也可能强化甚至加剧历史上的歧视问题。”
报告显示,这些系统可能对佩戴头巾的申请者或有非裔名字申请者存在歧视,尤其 是当无法为残疾人士做出合理调整时。
就像亚马逊开发的AI系统曾自动降低简历中 包含“女性”一词申请者的评级那样。
许多算法根据“理想”特征排名候选人,例如无间断的职业生涯路径,或采用设计不 佳的过滤器,比如对特定大学或最低GPA的要求,而这些标准往往与社会阶层、年 龄或性别等因素相关。
(图片来源:News)
当历史数据反映歧视性做法时,这种依赖就会造成问题,尤其是当这些数据反映出 以男性为导向的工作模式或特定语言风格的惩罚时。
Sheard警告,这些失误可能对被影响群体造成严重影响。
“雇主使用AI系统产生的 歧视风险是独特的,”报告写道,“一个歧视性的AI系统以前所未有的速度和规模造 成伤害,有可能将弱势群体排除在劳动力市场之外。”
由于全球已有42%的公司依赖这些工具,研究呼吁采取紧急监管措施,确保AI招聘 系统的透明性、公平性和包容性。
Sheard强调,AI面试系统缺乏透明性是一个主要问题。
“这就是问题所在,在人工 流程中,你可以向招聘者询问反馈,但我发现很多招聘者甚至不知道决策的原因, 因此无法提供反馈。”
“这对求职者来说是个问题……难以追责,但供应商和雇主必须对系统中的任何歧视 负责。”