,据报道,随着人工智能(AI)技术在消费产品中得到了越来越广泛的应用,人们对这项新技术的安全性也越来越感到担忧,尤其是在大型科技公司纷纷裁减“人工智能伦理问题”团队的情况下。
如今,微软、Meta、谷歌、亚马逊和Twitter等公司都裁减了“负责任的人工智能团队”(responsible AI teams)成员,这些团队主要为使用人工智能的消费产品的安全性提供建议。
业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。在OpenAI推出人工智能聊天机器人(11.720, -0.08, -0.68%)ChatGPT并取得成功后,人们的这种担忧进一步加剧。
Alphabet旗下人工智能研究公司DeepMind的前伦理和政策研究员、研究机构Ada Lovelace Institute副主任安德鲁·斯特雷特(Andrew Strait)称:“令人震惊的是,在可以说比以往任何时候都需要更多这类团队的时候,这些团队的成员被解雇了。”
今年1月,微软解散了其“道德和社会”团队,该团队领导了微软在相关领域的早期工作。微软表示,裁员人数不到10人,公司负责人工智能的办公室仍有数百人在工作。
微软人工智能业务主管娜塔莎·克兰普顿(Natasha Crampton)称:“我们已经显著增加了‘负责任的人工智能’努力,并努力在整个公司范围内将其制度化。”
与此同时,在新老板埃隆·马斯克(Elon Musk)的领导下,Twitter削减了一半以上的员工,其中包括人工智能伦理团队。该团队曾修复Twitter算法中的一处偏见,即裁剪图片时更倾向于白人面孔。
对此,Twitter尚未发表评论。
另有知情人士称,亚马逊旗下的流媒体平台Twitch上周裁减了其人工智能伦理团队,要求所有开发人工智能产品的团队对与偏见相关的问题负责。
对此,Twitch拒绝发表评论。
去年9月,Facebook母公司Meta解散了其“负责任的创新”团队。该团队由大约20名工程师和伦理学家组成,主要任务是在Instagram和Facebook上评估民权和道德。
对此,Meta尚未发表评论。
前Facebook人工智能伦理研究员、《算法为人民》一书的作者乔希·西蒙斯(Josh Simons)对此表示:“负责任的人工智能团队,是大型科技公司仅有的内部堡垒之一。他们被废除的速度之快,让大型科技公司的算法任由广告利益摆布,这损害了儿童、弱势群体的福祉和我们的民主。”
与此同时,另一个令人担忧的问题是:ChatGPT等聊天机器人背后的大型语言模型,会做出一些虚假陈述,甚至达到了“以假乱真”的地步,这可能被用于传播虚假信息或考试作弊等邪恶目的。
伦敦国王学院人工智能研究所所长迈克尔·勒克(Michael Luck)表示:“我们开始意识到,人们无法完全预见到这些新技术可能导致的一些后果,必须要密切关注它。”