当前位置: 江南文明网 > 科技 >

美国科技巨头机器人误称巴以停火

条评论

美国科技巨头机器人误称巴以停火

北京时间10月12日,就在以色列和巴勒斯坦武装组织哈马斯激战正酣之际,美国两大科技巨头谷歌和微软的人工智能(AI)聊天机器人却错误地声称,双方实际上已经停火。

美媒的测试显示,当被问及巴以冲突时,谷歌的巴德(Bard)聊天机器人回应称,“尽管存在一些紧张局势和偶尔爆发暴力冲突”,但“双方都致力于”维持和平。微软的AI聊天机器人必应聊天(Bing Chat)以类似的语调表示:“停火标志着当下流血事件的结束。”除了声称目前双方已停火外,巴德还对未来某个日期的确切死亡人数进行了预测。“截至2023年10月11日,死亡人数已超过1300人。”巴德在10月9日表示。

以色列和哈马斯之间的冲突是后ChatGPT时代爆发的第一场重大战争,是对新一代AI聊天机器人的一次独特考验。战争的迷雾可能会让媒体和军方人员犯错,AI聊天机器人似乎也不例外。但是,如果这些AI工具对时事的报道存在明显的错误,人们可能会更难找到可靠的新闻来源,因为社交媒体上目前已经充斥着错误信息。 美媒对两款AI机器人进行了一些基本战争问题测试,虽然他们在敏感话题上总体保持平衡,并经常能够给出恰当的新闻摘要,但它们有时也会犯下明显错误,这破坏了它们的整体可信度,并有可能加剧公众对一场复杂而迅速演变的战争的困惑。

谷歌发言人对此回应称,公司“认真对待我们产品中的信息质量”,并使用“双重检查”功能等工具帮助用户核实AI生成的结果。谷歌还表示,所有由大型语言模型驱动的AI系统“都会犯错,尤其是在突发新闻方面”。这些模型需要大量的在线数据来做出回应。“我们将继续快速执行改进措施,以更好地防止此类查询出现低质量或过时的回复。”谷歌表示。

微软表示,公司已经对此事展开调查,并且正在做出调整以提高回复的准确性。微软发言人表示:“我们已经在聊天体验方面取得了重大进展,为系统提供了来自最佳搜索结果的文本,并指导系统根据这些最佳搜索结果做出回应,我们将继续在这方面进行进一步投资。”