微软沈向洋:技术也有偏见,如何打造负责任的AI?

日期:09-02
微软人工智能沈向洋

微软全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋

微软

全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋

原标题:微软沈向洋:技术也有偏见,如何打造负责任的人工智能

“大部分人都高估了自己在一年里能做到的事情,同时却低估了自己能在10年里取得的成就。”在2019世界人工智能大会,AI FOR ALL“二十一世纪的计算”学术研讨会上,微软全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋用这句话表明微软在人工智能领域里的投入和专注。

在当天的演讲中,沈向洋介绍了在过去的一年时间里,全球各地的微软研究院取得的成就。例如,微软开发出了第一个能将数据编码存储到DNA中的方法,能够将一座仓库那么大的数据中心,压缩到只有几个骰子大小;微软的Project Natick项目,在大洋深处的海底,建成了一座数据中心;微软还开发了一套能够解释机器学习的开源方案,帮助人们开启人工智能的黑箱;同时,微软还创造了一套叫做Code Jumper的工具,利用不同形状的模块,帮助视力障碍的孩子们,学会如何编程。

当下,以人工智能为代表的一系列技术正在让很多不可思议的事情成为现实。但在推动技术进步的同时,如何解决技术带来的社会影响,以及人类将要共同面对的前瞻挑战?如何避免人工智能技术发展带来的偏见和歧视?也应该是科技公司需要关注的问题。

在当天的演讲中,沈向洋就举了一个例子。微软的研究团队,利用称为“单词嵌入”的自然语言处理工具,解决了文本搜索中的性别偏见的问题。

所谓单词嵌入,是一种用来将单词转换为向量数字的算法,它能够以来自新闻数据或者网页数据的海量文本数据为依据,为每个单词赋予一个对应的向量数字。通过在向量坐标系中,比对常见词汇与“他”、“她”这两个性别代词之间的关联度,研究人员发现了一些明显的特征,例如“sassy(刁蛮)”、“knitting(编织)”这样的词更靠近女性,而“hero(英雄)”、“genius(天才)”更靠近男性。算法之所以会为这些词汇赋予性别特征,原因在于训练算法用的基准数据集——通常是来自新闻和网页的数据——本身,就存在着由语言习惯造成的“性别偏见”,算法也自然“继承”了人类对这些词汇理解的性别差异。

其结果就是,当微软用试验算法,根据梅林达·盖茨的 LinkedIn信息推测其职业时,得到了“教师”的判断,但只要将人称代词换成“他”,盖茨夫人的职业就会变为“律师”。

为了解决这个问题,微软的研究员提出了一个简单易行的方案:在单词嵌入中,删除区分“他”和“她”的判断维度。

除此之外,据沈向洋介绍,微软早在2016年就开始关注技术带来的道德伦理问题。2016年,微软 CEO萨提亚·纳德拉发表了一篇关于人工智能共同责任的专栏文章,几个月后,第一次公开提出了微软的人工智能准则:公平、可靠和安全、隐私和保障、包容、透明、责任。

2017年,微软出版了《计算未来》一书,对人工智能发展过程中可能引发的道德、法律思考和社会影响,进行了全面详实的探讨。此外,微软成立了AETHER(“工程与科研中的人工智能道德”的缩写)人工智能伦理道德委员会,这个委员会由微软公司领导、工程师、科研人员、律师等组成,负责对微软内部与人工智能伦理道德相关的事宜,进行探讨和评估。

实测自动驾驶:踩油门、踩刹车…这些都不需要司机做 资本女王马雪征去世了
相关阅读: