manbext手机版 >教育 >人工智能可以像人类一样是性别歧视和种族主义者 >

人工智能可以像人类一样是性别歧视和种族主义者

2020-01-13 09:19:03 来源:工人日报

  

我们中的许多人都认为人工智能可以帮助消除偏见,算法可以帮助人类避免根据性别或种族相关的刻板印象招聘或监管。 但是一项新的研究表明,当计算机从人类写的文本中获取知识时,它们也会复制相同的种族和性别偏见 - 从而使它们永久化。

普林斯顿大学和英国巴斯大学的研究人员发现,机器学习在接受互联网上的文字训练时“吸收了刻板的偏见”。 他们的研究结果周四上,该研究结果表明,机器从书面文本中学习了与人类学到的文字联系。

研究报告的共同作者乔安娜·布赖森说:“不要以为人工智能是一位仙女教母。” “人工智能只是我们现有文化的延伸。”

在这项研究中,Bryson和她的研究人员使用了 ,该分析了来自互联网的亿个单词。

一种称为隐式关联测试(IAT)的心理工具 - 评估一个人在某些词之间的无意识关联 - 启发了一种类似的机器测试的开发,称为词嵌入关联测试(WEAT)。

“Word嵌入”根据通常出现的语境建立了计算机对单词的定义。 WEAT发现男性名字与工作,数学和科学有关,女性名字与家庭和艺术有关,这意味着这些刻板印象由计算机持有。

在某种程度上,结果并不令人惊讶,机器学习系统别无选择,只能从人类提供给他们的数据中学习。 ,当使用相同质量的简历时,AI仍然偏爱欧美名字而不是非裔美国人的名字。

嵌入也可用于编码关于花的常见情感甚至关于劳动力的事实,突出了偏见和偏见如何容易地从传递 。

“我们的研究结果表明,文本语料库包含了我们历史性偏见的可恢复和准确的印记,无论是对昆虫还是花朵都是道德中立的,对种族或性别有问题,甚至仅仅是真实的,反映了性别对于职业的现状分布或名字,“论文的抽象状态。

“我们的方法有望识别和解决文化中的偏见来源,包括技术。”

(责任编辑:康股)
  • 热图推荐
  • 今日热点