白板厂家
免费服务热线

Free service

hotline

010-00000000
白板厂家
热门搜索:
成功案例
当前位置:首页 > 成功案例

机器人也会产生性别歧视?原因竟是人类语言所致

发布时间:2022-06-13 17:03:38 阅读: 来源:白板厂家
机器人也会产生性别歧视?原因竟是人类语言所致

据《每日邮报》报道,计算机程序员们正试图教育机器人减少性别歧视,其方法是帮助它们摆脱某些单词所带来的偏见。虽然计算机可能是中性的,但人类的偏见可能无意识地体现在对语言进行分析的机器学习算法。这种偏见被证明已产生影响,如对求职者进行分类的基本计算机程序,可能会基于关键词而对某些求职者产生歧视。但美国有一个研究小组在正试图打破这种偏见。微软研究院(MicrosoftResearch)的程序员亚当卡莱(AdamKalai)正与波士顿大学的研究人员合作,试图从计算机中删除这种偏见。该研究小组正在利用一种被称为词向量(WordEmbedding)的技术,教育机器如何通过寻找单词之间的关系来处理语言。使用该方法,机器可以通过比较单词她和他来了解上下文。具体在应用时,机器会找到合适的配对,如姐妹兄弟或女王王。但是,当计算机搜索现实世界资源时,词向量方法可能根据固有的性别成见而进行配对。例如,寻找工作职位时,对于她他配对,计算机会联想到缝纫工木工或室内设计师建筑师。向计算机输入来自谷歌新闻的文章,正如所预料的,对于她他单词配对,能产生了一些良性的关联,如母亲父亲和自己(herself)自己(himself)。而一些配对更不常见,如子宫小肠或未婚夫室友。但一些基于性别偏见而产生的配对可能有问题。例如,可爱被认为是一个女性专用词,而辉煌等于男性,同样还有家庭主妇与计算机程序员配对。在职业上,这种性别歧视最极端的例子是,哲学家、战斗机飞行员、上司和架构师等这些工作通常与他有关。而与她相关的职业包括家庭主妇、社交名媛、接待员和理发师。卡莱在接受NPR(美国全国广播公司)采访时表示:我们试图避免出现性别歧视的现象,尤其是在新闻文章中……但你发现,这些单词配对存在相当严重的性别歧视性质。在网上最近公布的一篇研究报告中,该研究小组发现,他们可以训练机器忽略单词的某些关联,同时保持了所需的关键信息。他们解释称:我们的目标是减少单词配对的性别偏见,同时保留其有用的属性。通过调整他们的算法,该小组能够去除单词之间的某些关联,如前台和女性,同时保持合适的单词配对,如女王和女性。虽然其算法仍基于性别产生配对,但忽略了某些潜在的关联即某些词被视为更男性化或女性化。他们认为这种方法或许能通过词向量技术改进机器学习,在保持有用关联的同时摆脱单词固有的偏见。根据NPR的报道,问题是并不一定要用词向量算法来处理语言,这种算法可以区分性别和种族,但只有当研究人员希望专注于某一特定性别或群体时,才可能需要这种算法。当这种技术被打算作为一种不偏不倚的方法对数据进行分类,而不考虑性别或种族偏见时,这种技术可能会有问题。对此,研究人员解释称:理解基于种族、民族和文化的固有成见而产生的直接和间接偏见,是一项微妙的工作。今后这项工作的一个重要方向将是量化和消除这些偏见。

通知公告视频
祝福问候视频
行政办公视频