根据最新的报道,澳大利亚正在引入一项新的法规,要求科技巨头如Google、Microsoft的Bing和DuckDuckGo等搜索引擎公司采取措施,清除搜索结果中的虐待儿童材料,并防止生成深度伪造图像。这一法规旨在应对人工智能工具可能生成虐待儿童图像和恐怖主义宣传的问题。
澳大利亚电子安全专员Julie Inman Grant表示,科技公司需要在减少其产品可能带来的危害方面发挥主导作用。她指出,目前已经出现了合成虐待儿童材料,并称恐怖组织正在使用生成式人工智能来制作宣传材料,这已经成为现实,不再是幻想。因此,有必要采取行动。
根据新的法规,搜索引擎公司将被要求定期审查和改进其人工智能工具,以确保不返回“1A类”材料,包括儿童性虐待、恐怖主义和极端暴力材料。此外,这些公司还必须研究技术,帮助用户检测和识别可从其服务访问的深度伪造图像。这一法规被认为是世界上第一批类似框架之一。
Julie Inman Grant形容人工智能的迅猛发展为一场“军备竞赛”,并表示这一技术的演变“让大多数政策制定者、监管机构和国家措手不及”。她认为,对于生成式人工智能,监管工具的使用需要有不同的思考方式,并强调监管审查必须从设计和部署阶段开始,而不是问题出现后才采取应对措施。
在这一背景下,新法规要求科技公司从一开始就将进一步监管这些工具的规定纳入其中,而不是在问题出现后进行应对,这种情况类似于汽车制造商被要求安装安全带。Julie Inman Grant表示,这种做法对科技行业是有商业意义的,现在科技行业需要类似于“安全带时刻”的规定。
电子安全专员还表示,监管机构已经意识到一些不良分子正在利用新的人工智能工具进行非法活动,包括生成虐待儿童材料。新规则将迫使科技公司不仅要减少其平台上的危害,还要致力于构建工具,促进更高的在线安全,例如检测深度伪造图像。
澳大利亚总检察长Mark Dreyfus在议会上宣布,澳大利亚联邦警察正在使用人工智能来检测虐待儿童材料,而不再依赖手动审查照片。这一倡议的新工具呼吁成年人提交自己儿童时期的照片,以帮助训练人工智能模型,从而更好地应对虐待儿童材料问题。