当前位置: 江南文明网 > 科技 >

AI太强,人类危险?马斯克、图灵奖得主紧急呼吁暂停GPT-4模型后续研发

条评论

AI太强,人类危险?马斯克、图灵奖得主紧急呼吁暂停GPT-4模型后续研发

 我们看过太多人工智能叛变、进攻人类的科幻电影。而一些科学家们认为,按照现在AI的迭代速度,这真的将可能很快变为现实。

  自从ChatGPT问世并引发了一场席卷整个科技界的AI军备竞赛之后,人们在被人工智能的卓越能力所惊艳的同时,对于人工智能接下来会向何处进化、是否会威胁人类的担忧也越来越多。

  昨天,超过千名产业界和学术界的大佬们在“生命未来研究所(Future of Life Institute)”网站上发布联名公告:呼吁全球所有实验室暂停比更强的AI模型研发,暂停时间至少为6个月。在此期间,人工智能领域的专家和行业参与者应该共同制定一套安全协议,并对技术发展进行严格的审查和监督。

  值得注意的是,在这封信里签名的大佬们可一点都不掺水,全都是重量级真大佬。他们包括:

  Yoshua Bengio,曾因深度学习的相关研究获得图灵奖,是世界级人工智能专家和深度学习先驱;

  Stuart Russell,加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授,是人工智能领域有“标准教科书”之称 的《人工智能:一种现代方法》的作者;

  Elon Musk,这个不用多说了;

  Steve Wozniak, 苹果公司联合创始人;

  Yuval Noah Harari,《人类简史》和《未来简史》的作者;

  Andrew Yang,2020 年美国总统候选人

  ……

  此外还有包括Skype、Pinterest、Stability AI等公司的创始人、CEO,以及全球各国人工智能的资深研究专家。

  截至稿子完成时,目前签名人数已经达到了1280人。可以说,这是人工智能届一次史无前例的产业界和学术界的联名,对于当前的人工智能热潮强有力地发出了另一种声音。