谷歌翻译困境破局AI不是人,为什么也会有

这些年来,GoogleTranslate(谷歌翻译服务)一直被人诟病存在性别偏见现象,例如GoogleTranslate会默认将某些“中性”职业和特定的性别联系起来,“医生”一定是男性,而“护士”则往往是女性。

从年开始,Google就尝试解决土耳其语和英语互相翻译时的性别偏见问题,为与性别有关的词条提供两种版本的翻译(和汉语不同,土耳其语是“中性”语言。汉语中有“他”和“她”两种人称代词来区分性别,而土耳其语种仅存在“o”一种人称代词,不区分性别),分别展示指代男性和女性对应的语境。但此种解决方案可扩展性和准确度都较低,在推广到其它语言的翻译时困难重重。

今年4月22日,GoogleAIBlog(GoogleAI业务新闻博客)发表了最新的文章,宣布GoogleTranslate使用了优化升级的AI技术,进一步减少了翻译中出现的性别偏见现象,且拓展性较原方案更强,目前已经可以支持英语与西班牙语、芬兰语、匈牙利语以及波斯语的翻译场景。

为何“没有感情”的机器翻译模型也会自带性别偏见属性?GoogleTranslate究竟使用了何种AI技术来改善文本中的性别偏见现象?本期全媒派编译VentureBeat文章,带你通过GoogleTranslate在解决性别偏见方面的努力,了解AI行业探索“性别平等”之路。

1

-THEFIRST-

不只是一个没有感情的机器

AI或机器学习技术自然没有性别可谈,可性别偏见和其它社会偏见(如对年龄、职业、宗教、种族、甚至是地域的偏见和歧视)却常出现在AI产品之中,这也是目前AI行业极为

转载请注明:http://www.abuoumao.com/hykh/2007.html

  • 上一篇文章:
  • 下一篇文章: 没有了
  • 网站简介| 发布优势| 服务条款| 隐私保护| 广告合作| 网站地图| 版权申明

    当前时间: 冀ICP备19029570号-7