神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:微软公司正加速推进人工智能产品,引领 AI 潮流,最新发布了全面接入 GPT-4 版的 Office 全家桶,但此举是明智的吗?在大规模面向全球用户推出人工智能产品方面应该考虑哪些问题?而就在微软 Office 进行全面 AI 升级之前,他们却解雇了人工智能(AI)部门的整个社会道德伦理团队,不再设立专门的团队来确保 AI 原则和产品设计紧密相关。本文来自翻译,希望能对你有所启示。
I.
综合外媒报道,微软正在推进今年 1 月宣布的裁员 1 万人计划,解雇了整个 AI 社会道德伦理团队。
微软的员工表示,此举导致微软没有一个专门的团队来负责将人工智能原则与产品设计紧密结合,而目前该公司正在引领 AI 发展潮流,让人工智能工具成为主流。
微软仍然保持着一个专门负责人工智能的团队,负责制定规则和制度来更好地管理公司的人工智能计划。该公司表示,尽管最近在推进万人裁员计划,但其对应人工智能责任工作方面的整体投资仍在增加。
对于此次裁员,该公司在一份声明中强调,将会继续投资和开发负责任的人工智能:“微软一直致力于安全、负责任地开发人工智能产品和用户体验,并通过人员配置、梳理流程和建立良好的合作伙伴关系来实现这一目标。微软 Office of Responsible AI 团队在过去 6 年时间内快速扩充人员,和其它微软部门同事们共同致力于 AI 人工智能项目落地。微软感谢 Office of Responsible AI 所作出的巨大贡献,并将继续推进负责任的人工智能发展。”
员工表示,Office of Responsible AI 在确保公司人工智能原则在产品设计中得到实际体现方面发挥了关键作用。
“人们看到 Office of Responsible AI 提出的原则,会说,‘我不知道这是如何应用的,’”一名前员工表示。“我们的工作就是向他们展示,并在没有规则的领域建立规则。”
近年来,该团队设计了一款名为“判断召唤”(Judgment Call)的角色扮演游戏,帮助设计师预见人工智能可能带来的潜在危害,并在产品开发过程中进行充分讨论。这是团队公开发布的“负责任创新工具包”(responsible innovation toolkit)的一部分。
最近,该团队一直在努力识别微软在其整套产品中采用 OpenAI 技术所带来的风险。
AI 社会道德团队在 2020 年达到最大规模,当时大约有 30 名员工,其中包括工程师、设计师和哲学家。10 月,作为重组的一部分,该团队被裁减至约 7 人。
在重组后的一次团队会议上,人工智能公司副总裁约翰·蒙哥马利(John Montgomery)告诉员工,公司领导已经下达指示,要迅速推动产品面向市场。根据媒体获得的会议音频,他说:“微软首席技术官凯文·斯科特(Kevin Scott)和首席执行官萨蒂亚(Satya Nadella)的压力非常大,他们要把这些最新的开放式 AI 模型和后续模型以非常快的速度推向客户手中。”
蒙哥马利说,因为公司面临这种产品发布的压力,团队的大部分成员将被分配到其他部门帮忙。
AI 社会道德团队的一些成员进行了反击,其中一位员工在电话中说:“我大胆地要求你重新考虑这个决定,这个团队一直深切关注的是产品如何影响社会以及产品所产生的负面影响,这些影响非常重要。”
蒙哥马利拒绝了,“我能重新考虑吗?我想我不会的,”他说。“因为不幸的是,两种选择所面对的压力是一样的。你没有站在我的角度思考问题,也许你应该对此心存感激。”
不过,在向员工解答时,蒙哥马利表示,这支团队不会被辞退。
他说:“这并不是说这个团队日后会消失,相反它是在进化和成长。”“它正朝着将更多精力放在构建服务和软件的各个产品团队的方向发展,这确实意味着某些中心正在下放其能力和责任。”
AI 社会道德团队的大多数成员都被调到了微软的其他部门。剩下的成员表示,规模缩小以后,很难实施他们雄心勃勃的计划。
大约五个月后,也就是 3 月 6 日,剩下的员工被告知在北美时间上午 11:30 参加 Zoom 电话会议,听取蒙哥马利的“重要业务更新会议”。在会议期间,他们被告知 AI 社会道德伦理团队最终被解散了。
一名员工表示,此举会给用户体验和人工智能产品的整体设计带来损失。他解释说:“最糟糕的是,我们这样做让公司和使用产品的人都面临风险。”
这场冲突凸显了科技巨头之间持续存在的紧张关系,这些巨头建立了多个部门,致力于让自己的产品更具社会责任感。在最好的情况下,它们可以帮助产品团队预测潜在的技术风险,并在发布之前能够完全解决这些风险。