当前位置: 江南文明网 > 科技 >

AI可能会杀死人类,已经出现我们无法解释的推理能力

条评论

AI可能会杀死人类,已经出现我们无法解释的推理能力

 Pine 萧箫 金磊 发自 凹非寺

  量子位 | 公众号 QbitAI

  “AI确实可能杀死人类。”

  这话并非危言耸听,而是OpenAI CEO奥特曼的最新观点。

  而这番观点,是奥特曼在与MIT研究科学家Lex Fridman长达2小时的对话中透露。

  不仅如此,奥特曼谈及了近期围绕ChatGPT产生的诸多问题,坦承就连OpenAI团队,也根本没搞懂它是如何“进化”的:

从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。

  唯一的途径是向ChatGPT提问,从它的回答中摸索它的思路。

  针对马斯克在推特上的“危险论”,他直言:

马斯克在我心中是英雄,我支持也理解他的担忧。

虽然他在推特上挺混蛋的,但希望马斯克能看到我们在解决AGI安全问题上付出了多大的努力。

  除此之外,在这场对话过程中,奥特曼还提到了不少刁钻的话题,例如:

  • ChatGPT、GPT-4开发的内幕

  • GPT-4是人类迄今所实现的最复杂的软件

  • 如何看待大家拿ChatGPT越狱

  • ……

  在看过这场对话之后,网友直呼:

两位AI大佬用大家都能理解的方式聊AI,多来点这样的访谈。

  那么接下来,我们就来一同看下他们这场深度对话。

  GPT-4内幕大曝光

  GPT-4是这场对话中最受关注的部分。

  它是如何训练的?如何在训练模型时避免浪费算力?如何解决AI回答不同价值观的人的问题?

  首先是训练过程,依旧是预训练+RLHF,不过透露了一点具体细节。

  GPT-4早在去年夏天就已经训练完成,后面一直在进行对齐工作,让它表现得更符合人类需求。

  相比预训练数据集,RLHF所用的数据非常少,但效果是决定性的。

  对此,奥特曼透露了一点数据来源,包含一些开源数据集、以及合作商提供的部分数据集。

  当然,数据集中也有一点Reddit论坛上出现的迷因梗(meme),但不是很多。对此奥特曼遗憾表示:

如果再多点,它的回答可能会更有趣。

  即便如此,团队甚至奥特曼自己依旧不能完全解读GPT-4。

  目前对它的解读方式,依旧是通过不断问它问题,通过它的回答来判断它的“思路”。

  而就在不断测试中,OpenAI发现从ChatGPT开始,GPT系列出现了推理能力。

  虽然ChatGPT绝大部分时候都被当做数据库使用,但它确实也出现了一定的推理能力,至于这种能力具体如何出现的,目前却无人能回答。

  但大模型的训练往往意味着大量算力需求。对此奥特曼再次提到了OpenAI独特的训练预测方法:

即便模型很大,团队目前也有办法只通过部分训练,预测整个模型的性能,就像是预测一名1岁的婴儿能否通过SAT考试一样。

  关于这一点,在GPT-4论文和官方博客中也有更详细介绍。

  最后奥特曼承认,GPT-4确实存在应对不同价值观的人的问题。

  临时解决办法就是把更改系统消息(system message)的权限开放给用户,也就是ChatGPT中经常见到的那段“我只是一个语言模型……”。

  通过改变系统消息,GPT-4会更容易扮演其中规定的角色,比在对话中提出要求的重视程度更高,如规定GPT-4像苏格拉底一样说话,或者只用JSON格式回答问题。