您的位置:首页 >专题集锦 >

谷歌AI伦理团队联合负责人Timnit Gebru被解雇 这到底是怎么回事?

2020-12-08 10:45:50    来源: 量子位

这个周末,AI圈的一件事在社交网络引起轩然大波:谷歌AI伦理团队联合负责人Timnit Gebru被解雇。

而开除她的,正是大名鼎鼎的谷歌AI负责人Jeff Dean。

双方在一篇论文的内部评审上存在着严重分歧,随后Timnit Gebru的公司账户被切断。

一天后Jeff Dean向谷歌员工发布邮件,表示开除Timnit Gebru。

Timnit Gebru毕业于斯坦福大学,博士生导师是知名学者李飞飞。她的主要研究方向是算法偏差和数据挖掘,一直致力于黑人在科技圈的平权,是Black in AI的创始人之一。

Timnit Gebru最知名的研究是她在2018年发现,面部识别软件对黑人女性有高达35%的错误率,而对白人男性几乎完全正确。

几天时间里,双方隔空喊话,声势愈演愈烈,已有1400名谷歌员工和1900名AI学术圈人士对谷歌的行为表示谴责,其中不乏AI圈的大佬。

一向口碑不错的Jeff Dean,一下子成了“众矢之的”。

这到底是怎么回事?

时间线

12月2日(美国当地时间,下同),Gebru发推文表示自己已经被谷歌解雇,核心矛盾是双方在内部论文评审上的分歧。

Gebru发邮件给公司内部的Brain Women and Allies表达了沮丧的心情,该邮件内容泄露,Gebru被解雇,她对此表示出强烈的愤怒和谴责。

这个事件很快发酵,在Reddit上引发激烈的讨论,评论将近一千条。

3日,Gebru公开了她发给谷歌Brain女员工和其他同事的邮件内容。原来,她一直希望发表她的一篇研究论文,但是一直遭到上级反对。

在邮件里,她还揭露了谷歌对黑人这一弱势群体的不公平对待,以及对AI伦理的不重视。正是因为这封邮件,被爆出“不符合谷歌管理者的期望”,因而被解雇。

Jeff Dean很快就在谷歌内部发邮件回应了此事。他解释了Gebru论文没有被发表的原因。并说Gebru提出了一些无理要求,若不答应,她就以辞职威胁。最后,公司决定尊重她辞职的意见。

4日,Jeff Dean向公众公开了邮件的内容,并且详细地解释了谷歌内部研究论文的出版方法,以回应双方在论文评审上的分歧。

Gebru对他的回应并不买账,立马发出六条推文,指出他文章中漏洞和自相矛盾的地方。

5日,Gebru的谷歌上司、著名AI科学家Samy Bengio——图灵奖得主Yoshua Begio的胞弟,在Facebook上回应此事,实名支持Gebru,并且说:“她的慷慨和不懈的行动,提高了沉默者的声音。”

“导火索”论文公开

就在双方为AI公平性、伦理等问题吵得不开交之时,外媒“MIT科技评论”得到了让双方开战的论文原文。

论文的疑似原文也在网上公开流传。

这篇论文的标题是“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”(随机鹦鹉的危险:语言模型会太大吗?)。

近年来,科技巨头们都在全力研究自然语言模型,谷歌自己开发的BERT就是其中之一,最近谷歌还宣布英文搜索几乎全部用上了BERT。

Gebru的论文内容谈到了谷歌BERT在AI伦理上的负面影响。因此有人认为,谷歌出于这样的原因压下了论文。

文章在开头提出了一个疑问:我们是否对开发这些模型的潜在风险和减轻这些风险的战略进行了足够的思考?直指自然语言模型的“四大风险”:

1. 环境和经济成本巨大

训练大型AI模型消耗会消耗大量电力,使用NAS方法的语言模型会产生相当于284吨的二氧化碳,相当于5辆汽车在其寿命内的碳排放。

其中,谷歌训练一次BERT模型会产生1438磅二氧化碳,几乎等于纽约和旧金山之间的往返航班的碳排放量。

2. 海量数据与不可解释的模型

研究人员从互联网上收集数据,因此种族主义、性别歧视和其他辱骂性语言可能会最终出现在训练数据中。

由于训练数据集非常大,很难对其进行审核,检查这些嵌入的偏差。

另外,模型很难获取与互联网接触较少的群体的语言,这将导致AI生成的语言将同质化,只能反映最富裕国家和社区的做法。

3. 研究机会成本

大型语言模型实际上不理解语言,只是擅长操纵语言,但大型科技公司可以从更准确地从中赚钱,因此一直在投资它们。

而更小、更精心设计的数据集也会取得良好效果,消耗的能量也更少。

4. 语言AI可能欺骗人类

AI非常擅长模仿人类语言,因此很容易用它来愚弄人类。

研究人员举了一个例子:2017年,Facebook将一名巴勒斯坦男子的用阿拉伯语说的“早上好”误译为希伯来语中的“攻击他们”,导致他被捕。

对于论文提及的这些问题,Jeff Dean在发给员工的邮件中均有解释。

Jeff Dean认为,Gebru的论文存在着一些漏洞。

她只提到了BERT,而没有考虑到后来的模型提高了效率,也没有考虑近来谷歌的研究已经解决了一些伦理问题。

Jeff Dean指出,仅近一年来,谷歌就发表了200多篇关于AI伦理的论文,Gebru的论文缺乏对谷歌这些工作的表述。

而且Gebru提交给谷歌审查论文距离截稿只剩一天时间,通常谷歌需要两周时间审核论文。

Gebru则表示,论文两个月前已经交给相关部门审核,但是一直没有收到反馈。

至于开除Gebru的原因,是因为她要求谷歌提供审核人员的名单,否则她将离开谷歌。Jeff Dean认为谷歌并不能满足她的要求,因此会尊重并接受她辞职的决定。

双方分歧的关键在于,Gebru究竟算被谷歌开除还是主动离职?

Jeff Dean认为既然谷歌无法满足Gebru提出的条件,因此Gebru自动离职。而Gebru认为,辞职应该是自己提出,而不是谷歌单方面开除。

另外,Gebru还向谷歌数百名员工发送邮件,希望他们停止DEI(多样性、公平性、包容性)项目相关工作。这又进一步激化了双方的矛盾。

谷歌员工质疑Jeff Dean

对于Jeff Dean的这番说辞,谷歌内部员工说:“这真是个谎言。”

谷歌AI蒙特利尔分部的研究员Nicolas Le Roux指出,过去他提交给内部审查的论文只会检查是否泄露敏感内部资料,而不会检查文献评论的质量。

另一位谷歌前PR经理说:“审查这些论文是我在谷歌PR团队工作的一部分。通常情况下,文章对我们而言太多了,所以我们没有及时审查它们,或者直到研究人员发布后我们才知道。我们绝不惩罚没有适当处理的人。”

现在双方的激战已经远远超出了论文的范围,但焦点仍在论文处理的流程上。谁说的是事实,另一方就会理亏。

这一场谷歌AI的罗生门事件,只能等“子弹再飞一会儿”了。

然而罕见的是,一度在谷歌拥有“神”一样地位的Jeff Dean,竟然在这件事中面对如此声势的讨伐,也确实是“活久见”了。

关键词: AI 伦理团队

相关阅读

精彩推送