环球微动态丨微软大裁员:砍掉整个AI社会道德伦理团队

来源:36kr时间:2023-03-17 09:57:27

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:微软公司正加速推进人工智能产品,引领 AI 潮流,最新发布了全面接入 GPT-4 版的 Office 全家桶,但此举是明智的吗?在大规模面向全球用户推出人工智能产品方面应该考虑哪些问题?而就在微软 Office 进行全面 AI 升级之前,他们却解雇了人工智能(AI)部门的整个社会道德伦理团队,不再设立专门的团队来确保 AI 原则和产品设计紧密相关。本文来自翻译,希望能对你有所启示。


(资料图)

I.

综合外媒报道,微软正在推进今年 1 月宣布的裁员 1 万人计划,解雇了整个 AI 社会道德伦理团队。

微软的员工表示,此举导致微软没有一个专门的团队来负责将人工智能原则与产品设计紧密结合,而目前该公司正在引领 AI 发展潮流,让人工智能工具成为主流。

微软仍然保持着一个专门负责人工智能的团队,负责制定规则和制度来更好地管理公司的人工智能计划。该公司表示,尽管最近在推进万人裁员计划,但其对应人工智能责任工作方面的整体投资仍在增加。

对于此次裁员,该公司在一份声明中强调,将会继续投资和开发负责任的人工智能:“微软一直致力于安全、负责任地开发人工智能产品和用户体验,并通过人员配置、梳理流程和建立良好的合作伙伴关系来实现这一目标。微软 Office of Responsible AI 团队在过去 6 年时间内快速扩充人员,和其它微软部门同事们共同致力于 AI 人工智能项目落地。微软感谢 Office of Responsible AI 所作出的巨大贡献,并将继续推进负责任的人工智能发展。”

员工表示,Office of Responsible AI 在确保公司人工智能原则在产品设计中得到实际体现方面发挥了关键作用。

“人们看到 Office of Responsible AI 提出的原则,会说,‘我不知道这是如何应用的,’”一名前员工表示。“我们的工作就是向他们展示,并在没有规则的领域建立规则。”

近年来,该团队设计了一款名为“判断召唤”(Judgment Call)的角色扮演游戏,帮助设计师预见人工智能可能带来的潜在危害,并在产品开发过程中进行充分讨论。这是团队公开发布的“负责任创新工具包”(responsible innovation toolkit)的一部分。

最近,该团队一直在努力识别微软在其整套产品中采用 OpenAI 技术所带来的风险。

AI 社会道德团队在 2020 年达到最大规模,当时大约有 30 名员工,其中包括工程师、设计师和哲学家。10 月,作为重组的一部分,该团队被裁减至约 7 人。

在重组后的一次团队会议上,人工智能公司副总裁约翰·蒙哥马利(John Montgomery)告诉员工,公司领导已经下达指示,要迅速推动产品面向市场。根据媒体获得的会议音频,他说:“微软首席技术官凯文·斯科特(Kevin Scott)和首席执行官萨蒂亚(Satya Nadella)的压力非常大,他们要把这些最新的开放式 AI 模型和后续模型以非常快的速度推向客户手中。”

蒙哥马利说,因为公司面临这种产品发布的压力,团队的大部分成员将被分配到其他部门帮忙。

AI 社会道德团队的一些成员进行了反击,其中一位员工在电话中说:“我大胆地要求你重新考虑这个决定,这个团队一直深切关注的是产品如何影响社会以及产品所产生的负面影响,这些影响非常重要。”

蒙哥马利拒绝了,“我能重新考虑吗?我想我不会的,”他说。“因为不幸的是,两种选择所面对的压力是一样的。你没有站在我的角度思考问题,也许你应该对此心存感激。”

不过,在向员工解答时,蒙哥马利表示,这支团队不会被辞退。

他说:“这并不是说这个团队日后会消失,相反它是在进化和成长。”“它正朝着将更多精力放在构建服务和软件的各个产品团队的方向发展,这确实意味着某些中心正在下放其能力和责任。”

AI 社会道德团队的大多数成员都被调到了微软的其他部门。剩下的成员表示,规模缩小以后,很难实施他们雄心勃勃的计划。

大约五个月后,也就是 3 月 6 日,剩下的员工被告知在北美时间上午 11:30 参加 Zoom 电话会议,听取蒙哥马利的“重要业务更新会议”。在会议期间,他们被告知 AI 社会道德伦理团队最终被解散了。

一名员工表示,此举会给用户体验和人工智能产品的整体设计带来损失。他解释说:“最糟糕的是,我们这样做让公司和使用产品的人都面临风险。”

这场冲突凸显了科技巨头之间持续存在的紧张关系,这些巨头建立了多个部门,致力于让自己的产品更具社会责任感。在最好的情况下,它们可以帮助产品团队预测潜在的技术风险,并在发布之前能够完全解决这些风险。

但他们也有责任在组织内部说“不”或“让产品开发速度降低一点”,AI 道德社会团队会强调可能会给公司带来法律麻烦的风险,而通常这些是公司开发部门不想听的事情,由此产生的摩擦有时会引起公众的关注。

2020 年,谷歌解雇了人工智能道德伦理研究员蒂姆尼特·格布鲁(Timnit Gebru),因为她发表了一篇在人工智能语言模型中存在偏见的危险的论文,该模型在两年后迅速流行起来。由此引发的愤怒导致该部门多名高层领导离职,并降低了该公司在人工智能道德伦理问题上的可信度。

AI 社会道德伦理团队的成员表示,他们通常会尽力支持产品开发。但他们也说,随着微软开始专注于比竞争对手更快地推出人工智能产品,该公司的领导层对团队擅长的长期思考不那么重视了。

这是一个值得仔细审视的事情。一方面,微软现在可能有一个千载难逢的机会,可以在搜索、生产力软件、云计算和其他巨头竞争的领域对谷歌产生重大威胁。当微软重新推出人工智能必应产品时,该公司告诉投资者,在搜索领域,它每从谷歌那里夺走 1% 的市场份额,就会带来 20 亿美元的年收入。

这种潜力有力地解释了微软迄今为止已向 OpenAI 投资 110 亿美元的原因,目前微软正在加紧将这家初创公司的技术整合到其商业帝国的每个角落。它似乎取得了一些初步的成功:该公司上周表示,必应现在有 1 亿日活跃用户,其中三分之一是在使用 OpenAI 的技术重新推出搜索引擎后新增的。

另一方面,参与人工智能开发的每个人都默认,这项技术会带来巨大的、可能存在的风险,无论是已知的还是未知的。科技巨头们努力发出信号,表明他们正在认真对待这些风险,即使在社会道德伦理团队被解散之后,仅微软就仍有三个不同的团队在这个问题上开展工作。但考虑到利害关系,对专注于道德团队的任何削减似乎都值得注意。

II.

道德和社会团队被淘汰之际,其剩下的员工正将注意力集中在他们可能面临的最大挑战上:预测当微软向全球受众发布 OpenAI 支持的工具时会发生什么。

去年,该团队写了一份备忘录,详细介绍了 Bing Image Creator 相关的品牌风险。Bing Image Creator 使用 OpenAI 的 DALL-E 系统根据文本提示创建图像。去年 10 月,这款图像工具在少数几个国家推出,成为微软与 OpenAI 首次公开合作的项目之一。

虽然文本转图像技术已经被证明非常受欢迎,但微软的研究人员正确地预测到,任何人都可以轻松地复制他们的风格,这也可能威胁到艺术家的生计。

研究人员在备忘录中写道:“在测试必应 Image Creator 时,我们发现,只要输入艺术家的名字和媒介(绘画、印刷品、摄影或雕塑),生成的图像就几乎不可能与原作区分开。”

他们补充说:“艺术家及其财务利益相关者的品牌受损风险,以及可能面临的艺术家投诉和公众的负面反应对微软造成的负面公关风险是值得引起重视的,足以在损害微软品牌之前要求纠正。”

此外,去年 OpenAI 更新了服务条款,赋予用户“使用 DALL-E 创建的图像的完全所有权”。此举让微软的道德与社会团队感到担忧。

他们在备忘录中写道:“如果人工智能图像生成器复制了作品图像,那么允许在线用户对生成的图像拥有完全所有权,在道德上是可疑的。”

微软研究人员制定了一系列应对策略,包括阻止必应 Image Creator 用户使用在世艺术家的名字作为“提示”,以及创建一个市场出售艺术家的作品,如果有人搜索他们的名字,这些作品就会显示出来。

员工们表示,这两种策略都没有实施,但 Bing Image Creator 还是进入了测试阶段。

微软表示,该产品在发布前进行了修改,以解决文件中提出的问题,并督促社会道德伦理团队进行了额外完善。

但有关这项技术的法律问题仍未解决。2023 年 2 月,盖蒂图片公司((Getty Images))对 AI 艺术生成器 Stable Diffusion 的制造商 Stability AI 提起诉讼。盖蒂指责这家人工智能初创公司不当使用 1200 多万张图像。

这些指控与微软自己的人工智能伦理学家提出的担忧相呼应。“可能很少有艺术家会同意让他们的作品被用来测试,而且很多人可能还不知道生成技术是如何在几秒钟内让他们的作品产生变化的,”员工们去年写道。

译者:Araon_

关键词:

责任编辑:FD31
上一篇:爱尔眼科,跌在315 当前热议
下一篇:最后一页