谷歌ai检查新突破(从不作恶到)
作者 | Blake Lemoine
译者 | 弯月 责编 | 欧阳姝黎
出品 | CSDN(ID:CSDNnews)
过去的六年,我有幸一直在Google工作。在这期间,最令我印象深刻的一件事情是,一位女性经过四年的努力,从无到有建立了AI伦理团队。在Google工作期间,我在AI伦理团队遇到了Meg Mitchell(现已离职,原谷歌伦理AI团队负责人)。她花费了数年的时间组织和招募人员,并为Google在全世界树立了良好的道德形象。“不作恶”(Don't be evil)一直是Google行为准则的一部分,然而曾经有一段时间,这个口号更像是一种讽刺,但Meg所到之处都会将这一思想贯彻到底。
最近媒体上有很多Google的AI伦理团队的负面新闻,但我觉得这个团队的诞生以及发展都被很多人忽略了。
AI伦理团队的诞生
2015年2月2日,我正式加入了Google。当时还没有AI伦理团队。我们在构建AI时几乎没有任何道德上的顾虑。后来,我按照Google的规定,拿出20%的工作时间加入了Yuliya Zabiyaka的项目,负责检测文本中的性别偏见,在这期间内我开始接触API的伦理。经过一年半的工作后,我们在实习生Brian Zhang的帮助下,开发出了一种系统,可以消除单词嵌入中的一部分性别偏见。Brian提醒我,当时正在举行一场“AI伦理马拉松”,我们可以参加。我征求了经理的意见,并得到了批准,于是我们参加了大赛。在大赛期间,我们认识了一些斯坦福大学的学生,而且我们意识到Google需要一些AI伦理方面的专家。此外,我们还认识了Meg Mitchell。
我本人是一名软件工程师和系统设计师。我的实习生是一名数学天才。我们俩都不是最前沿的科学家。Meg看到了我们的计划,并同意帮助我们实现这些想法。在接下来的几周中,她告诉我们应该使用哪些数据集,以及应该尝试哪些实验。每一次,我们都会根据她的指导调整系统。短短一个月内,我们的系统从杂乱无章的代码变成了真正的科学。最后,她还帮助我们撰写了论文,并在AI伦理与社会大会上发表了。
通过这些工作,我意识到是Meg帮助我们参加了整场黑客马拉松。后来,她应邀从微软研究院转到Google工作,并开始开拓创新。她有一个清晰的愿景,而且很清楚自己需要完成的工作。
最终,我们去新奥尔良展示我们的发现,Meg担任组长,带领我们走向成功。我们是一群孤零零的工程师,我们只喜欢与自己圈子的人打交道,但Meg会帮助我们扩大圈子。
后来,我才幡然醒悟,从那时她就开始组建AI伦理团队了。Meg不仅在公司内部建立了关系,而且还与其他公司有往来。最终,我们的算法甚至包含到了IBM的AI 360工具包中。Meg花了几个月的时间为我们团队奠定了基础。她在Google内部建立了一个安全的空间,我们可以从AI伦理的角度提出真正的挑战,而且研究人员可以提出棘手的问题。虽然这些工作很难量化,但从性质的角度来看,我不得不说这些工作非常伟大。
那次大会之后的一年内,Meg从无到有组建了一个AI伦理团队。她为团队打下了坚实的基础,每个人都可以提出棘手的问题,她发现Google内部有一些人对这些问题很感兴趣,然后她就帮助我们每个人朝着这个方向发展。即便我只有20%的工作时间投入了AI伦理,她也花了很多时间来指导。通过Meg的努力和勤奋,我们终于吸引到了该领域的其顶尖人才,比如Timnit Gebru(谷歌原AI资深研究员)等。
商业利益与道德价值观的冲突
Meg的贡献不仅限于研发。过去,Google员工会在每周一次的“ TGIF”会议上向公司创始人提问。我只见过Meg发过一次言。在Maven项目失败后,她曾提问:“我们中的一些人以前就在与美国国防部合作的公司工作,后来我们跳槽来了Google,因为我们不希望沦为战争的机器。现在您突然让我们的工作转向武器研发,这是不是有点欺骗我们的感情?”可惜,她得到的答复是:“如果你不喜欢,门就在那边。”
很遗憾,每当有人提出有关道德的问题时,Google总是给出类似的答复。Google的口号从“不作恶”变成了“如果你不喜欢,门就在那边”。Meredith是AI伦理学领域的顶级研究科学家,她也得到了同样的答复。Claire曾是Google内部的发言代表,也遭遇了同等对待。商业利益不断与道德价值观发生冲突,一次又一次,每当有人讲真话,就会吃到闭门羹。直到Larry和Sergey亲自出面解决Andy Rubin的丑闻之前((Andriod操作系统创始人、谷歌前高管安迪·鲁宾(Andy Rubin)曾是谷歌性骚扰丑闻的核心人物)),Google内部一直是言路闭塞。
关于AI伦理的辩论
2019年,我非常荣幸地在Google的ML论坛上,与Timnit Gebru进行了一场激烈的辩论。当时,AI伦理团队赢得了Google一些团队的尊敬,但有些人则仍然持嘲笑的态度。我们双方在一个重要主题上持完全相反的立场:是不是每位AI研究人员和从业人员都应该承担起高水准的AI道德操守?当时我持否定立场。我的观点是,道德本身就是一门学科,要求每位AI从业人员都必须遵守道德,无异于要求业余爱好者从事专家工作。Timnit的立场是,每一位部署AI系统的工作人员都应对其部署承担起道德上的责任。我们来回较量了几个回合,两人都言之有据,直到我说我们不能让情商不够的人员来担当AI伦理的工作。她的回答是:“所以,你的意思是说应该由黑人妇女对此负责。”(因为AI领域的主导者大多是情商不够成熟的白人和亚裔男人。)
当时,我知道她是对的,而我是错的。如果你对人类的互动没有丝毫兴趣,只想专心研究微积分,那么恭喜,你可以成为AI领域的后起之秀。你的主要工作就是超越各种基准,并提出高难的公式,你可以做得非常出色。Timnit的话引起了我的共鸣,因为我曾与Meg参加过一次会议,我观看了一位工程师在警察档案系统的一些发现。加州大学洛杉矶分校的一位研究人员展示了一个系统,该系统可以确定某次是否行动是否与“黑帮有关”,而警察局可以据此派遣“适当的武装力量”。有几个人询问了有关他的系统所用数据集的偏见,而他的回答完全是套路。于是我问他:“暂时抛开刚才的那些问题,假设你的系统可以完美地预测出某次任务是否与黑帮有关。那么,你是否担心你提供给警察的信息优势会导致黑帮加强警戒和武装力量,从而让情况变得更糟?”他的回答是:“老兄,我只是一名工程师。”我只希望他不要成为重蹈Werner von Braun的覆辙(Werner von Braun:德国/美国火箭专家,二十世纪航天事业的先驱之一,曾是纳粹德国著名的V2火箭的总设计师)。
Timit通过Werner von Braun的事迹说服了我,我发现自己错了。我所做的只是给工程师通行证。“Werner von Braun曾说过,当火箭升起时,谁知道它们会落到哪里?那不是我的管辖领域。”
她说服了我,通往AI伦理的最佳途径是教会该领域的白人和亚裔男人提高情商。确保AI伦理不只是少数人(大多数是女性和有色人种)的工作。这种模式只会导致一小撮人辛苦地努力为其他人善后。
打从那时开始,我终于明白了Meg与AI伦理团队的意义。我与他们进行了互动,就好像他们是一群提供咨询服务的专家。实际上,Meg构建的模型应该普及到每一个AI团队,而且这种道德观应该成为技术发展的重心。不幸的是,许多人都知道,这个故事并没有一个圆满的结局。
AI伦理团队的分崩离析
其实,论文“随机鹦鹉”(原标题:On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)并没有什么特别,论文本身很好,而且各个方面都很普通。只不过,该论文研究了一项新兴技术,并针对违反AI伦理的主要问题进行了风险分析。他们的论文通过了Google内部审核流程,后来又通过了必要的外部审核程序才发布了。但是,Google要求他们撤回文件,或者删除他们的名字。实际上,这种情况并不少见,我本人也有非常相似的经历。
2018年,我撰写了一篇有关AI监管的论文。很幸运,我与一位在AIES会议上遇到的律师一起撰写了全文。我们进行了内部审核,得到了批准,然后将论文提交给了大会,但Google要求我们撤回论文,或从中删除Google员工的姓名,这与Meg和Timnit遇到的情况几乎相同。然而,之后事情的发展就完全不同了。当时,我问了原因,他们派了一个特定的人员与我会面,向我解释了为什么他们认为这篇论文不妥,并给我提供了一些为社区做贡献的其他方法。我感觉自己得到了尊重,有人肯听而且很重视我的意见。于是,我撤回了论文,并且按照他们的指导提交了联合白皮书。
然而,Timnit遭到了无情地拒绝。她也提出了与我类似的请求,但只得到一个答复:“不行”。她说自己遭到了不公正的待遇,而且她根本没有得到机会与制止这项研究的Google高管讨论此事。后来,她发邮件希望他们停止DEI项目相关工作,然后就被当场解雇了。我相信,坚持撤稿的人确实有理由相信这篇论文“不可发表”,除非其中引用了可以降低风险的技术。关于此次高管的审查,仍然有很多疑问。不过,我们都明白了一件事,坚持要求退稿的人不是AI伦理专家。
从那以后,AI伦理团队的成员就像多米诺骨牌一样纷纷离职了。Meg是Timnit聘请来的,她见证了每一个歧视。她曾试图收集证据,但后来也因此被开除了。在Timnit和Meg被解雇之后,其他几位伦理专家也都纷纷辞职了。剩下的人都陷入了沉默,因为他们担心如果支持Timnit和Meg的话,自己也会被开除。
在Meg Mitchell加入Google之前,Google还没有AI伦理团队。当时只有一小撮人关心AI伦理,还有一群低情商的人,他们都不想因此而阻碍了AI的前进之路。Meg建立了一个AI伦理团队,并招募了该领域最优秀的人才。她说服了其他人,Google可以成为从事此类工作的避风港。她还与Google内部的多个产品团队建立了信任,证明了她和她的同事可以为他们的产品增加价值。然而,在一天之内,Google决定冒险摧毁一切努力。
总结
希望有一天,Google的AI伦理团队能够像Meg建立的那般强大。不幸的是,如今我们的心仍在流血,因为我们无法再信任Google的领导团队能够做出正确的决定。我已经与多位AI伦理研究人员和工程师针对他们的去留进行了反复的交谈。许多人仍在考虑之中,包括我自己在内。我们所有人留下来的原因都一样:如果我们辞职,那么Meg的一切努力都将付之东流。如果我们所有人都走了,谁来做这项工作?
也许Google将继续创建能够改变这个世界的AI,但是没有道德专业知识的约束,无法避免将来可能出现的巨大伤害。如今情况已有所不同,但希望过去四年我们苦心建立的联系和专业知识足以抵御这场风暴。
原文链接:https://cajundiscordian.medium.com/the-history-of-ethical-ai-at-google-d2f997985233
声明:本文由CSDN翻译,转载请注明来源。
,
免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com