“硅谷钢铁侠”埃隆·马斯克正式下场AI。
当地时间7月13日,马斯克宣布xAI公司正式成立。马斯克表示,推出xAI的原因是想要“了解宇宙的真实本质”。
3个月前,马斯克接受美国福克斯电视台采访。采访时,谈到了他的AI计划。在他看来,让AI去探索太空、了解宇宙是最安全的,当人类对于AI来说只是宇宙有趣的一部分,AI就不会威胁到人类的安全。
此外,马斯克在这场访谈中还解释了他为什么购买Twitter以及后续又为什么要裁员80%。谈到裁员80%时,他表示不需要那么多人运营Twitter,人少点反而效率更高。
而这次访谈,恰好阐述了马斯克的AI观。
以下是本次访谈中,马斯克对AI的看法:
1.现在很多法规都是在已经发生了可怕的事情之后才制定的,但对于人工智能来说,等到发生可怕的事情再进行监管就来不及了。你可以想象一下,人工智能如果无序发展的话,迟早有一天会控制人类。
2.我所追求的AI,是试图去理解宇宙的本质,这可能是AI研究保证安全性的最佳途径。AI关注和了解的是宇宙,就不太可能对人类造成威胁。
3.公众会用他们的行动说话,他们发现在Twitter上能看到真相,自然会更多地使用它。
4.我同意人类本质上对负面信息更敏感,但总是接触负面的东西会变得非常危险。我们现在听到的新闻似乎经常让人回答这个问题:“今天发生的最糟糕的事情是什么?”
以下为访谈全文(有删改):
01 谈AI安全:人工智能如果无序发展的话,迟早有一天会控制人类
主持人:突然之间人们感觉人工智能无处不在了,你觉得这是好事还是坏事?
马斯克:我在大学时就已经开始思考人工智能的发展了。我认为AI会是未来真正影响和改变世界的重要技术之一。从根本上说,它是深刻的变革。我们都知道地球上最聪明的生物是人,我们虽然没有黑猩猩敏捷,比它弱很多,但我们确实更聪明。
那么现在,当比最聪明的人还要聪明得多的对象出现时,会发生什么呢?这是很难预测的。人工智能的出现被认为是一个奇点,它是一个像黑洞一样深不可测的奇点,没人能预测之后会发生什么。
所以我们应该谨慎地对待人工智能,应该有一些政府监督。一项技术或者产品对公众的安全有威胁时,理应得到政府的重视和监管。比如现在我们有食品和药物管理局、联邦航空管理局、联邦通信委员会等机构来监督影响公众安全的领域。所以我一直以来都是强烈要求加强人工智能领域的监管。
我知道被监管是一件比较煎熬的事情,比如火箭方面,有时候为了获得发射许可证,可能需要6个或更多联邦机构的许可才行,这太疯狂了。你们看我比较特立独行,经常藐视监管,但事实并非如此,大多数情况下,我很少会违背监管政策,我和我的公司基本都是同意接受监管的。
无论如何,我们应该认真对待人工智能监管这件事。一个监管机构,我认为它需要从一个团队开始,这个团队先对人工智能进行洞察,然后征求业界的意见,最后制定一些被人工智能主要参与者接受的政策和法规。
主持人:我不认为普通人在手机上玩人工智能会有什么危险,你认为可能存在的危险是什么?
马斯克:我认为AI的危险性可能比不靠谱的飞机设计或者汽车生产更大。尽管AI现在看起来微不足道,但它有着可能毁灭人类文明的潜力。
现在很多法规都是在已经发生了可怕的事情之后才制定的,但对于人工智能来说,等到发生可怕的事情再进行监管就来不及了。你可以想象一下,人工智能如果无序发展的话,迟早有一天会控制人类。
我和拉里·佩奇(Larry Page)关系一直都很不错,之前住他家的时候和他讨论过人工智能的安全问题。但我的感觉是,他并没有对人工智能的安全问题予以足够的重视。
多年来他发表了很多公开声明,声称谷歌的总目标是发展人工智能或超级人工智能。我同意他认为人工智能有巨大发展潜力的观点,但是如果发展一些激进的新技术,它可能会做好事,也可能做坏事。我和他表达的观点是,要确保新技术发展的安全性,让人类安然无恙地生活在地球上——结果拉里认为我是一个物种歧视者。
当时谷歌和它收购的DeepMind拥有全世界大概3/4的人工智能人才和计算机资源,拉里作为这样一个掌握雄厚发展资源的领导者,却对人工智能发展的安全性不够重视,在我看来这不太好。
OpenAI与谷歌不同之处在于它是非营利组织,虽然我很赞同一个企业应该以盈利为目的,但是在人工智能这块,我不希望它追求利润最大化。
主持人:我感觉你是想要更多人支持你监督人工智能的发展。
马斯克:是的,因为我的目的是让人类的未来变得更好,想要AI的发展对人类的未来有利,因为我们本身就是人类,得为人类多考虑。
很多人觉得人类生活在地球上是理所当然的,这种意识很正常,目前没有发现其他有意识的生命体存在的证据。很多人会问我,地球上有外星人吗,在哪里,我会告诉他们,如果地球上有外星人,那我肯定会第一时间知道,因为我对太空非常熟悉,我要是看到外星人,第一件事就是发推文告诉全世界。
我的意思是说,人工智能就好比外星人一样,有一天他们入侵了我们的世界,那我们是否有抵御的能力是需要提前思考的。
主持人:所以你觉得我们人类在地球上生存是理所当然的,AI会威胁到人类的生存安全,是这个意思吗?
马斯克:是的,其实也没有证据证明宇宙中没有其他生命体存在,我们并非“独一无二的存在”。我只是想说不要假设文明是强大的,它其实很脆弱,回顾历史文明的演进,古埃及人、古罗马人等许多文明都在迭代中逐渐消失。所以,我考虑这些只是想人类文明能不断前进。
主持人:人工智能目前的优势很明显,可以帮你写文稿,还能做很多有趣且有用的事情,你能再具体说说它的危险性在哪里,你到底在担心什么?能不能具体展开说说。
马斯克:我同意一句老话:一支笔带来的影响力远远超过一柄剑。如果你有一个超级智能的AI,它能够写出非常好的文章,带来影响力,令人信服。随着时间的推移,它进入社交媒体,例如Twitter、Facebook等,并以一种非常糟糕的方式操纵公众舆论,那个时候我们要如何分辨?这就是为什么我坚持要Twitter上的用户验证自己是人类。可以允许机器人存在,但是它不可以冒充人类。因为你可以拥有一百万个机器人,比人类数量多得多,通过训练之后在社交媒体上很难被分辨出来,那么它们就会对公众舆论产生巨大的影响。除非我们验证某人是否是人类,否则这样的情况肯定会发生。
02 谈OpenAI:会创建谷歌和微软之外的第三个选择
主持人:听说你为OpenAI的创建付出了不少?
马斯克:是的,可以说是我一手推动了它的创建。OpenAI这个名字就是我给起的,我还帮他们招募了一批人工智能领域的领军人才,比如现在OpenAI的首席科学家Ilya Sutskever就是我招来的,要是没有他,OpenAI开局也不会这么成功。
我确实付出了很多努力来创建这个组织,当时想的是来制衡谷歌。但后来我有点放弃了,没有继续跟进,现在他们和微软紧密结盟了,微软对OpenAI有着较强的控制。现在是谷歌和OpenAI,微软和DeepMind这两大力量左右人工智能的发展。
主持人:所以现在需要第三股力量来参与竞争是吗?
马斯克:是的,我会创建第三个选择。尽管我开始得比较晚,但我还是要做这个事情,我希望能做得比OpenAI更好。OpenAI开发人工智能的目的是做好事,但目前还不能确定它是否真的在做好事。AI的训练可能存在欺骗性,所以不能保证现在的AI完全在做真正的好事。
我所追求的AI,是试图去理解宇宙的本质,这可能是AI研究保证安全性的最佳途径。AI关注和了解的是宇宙,就不太可能对人类造成威胁。就像我们现在不会去消灭大猩猩吧,反而更愿意去保护他们的栖息地。