本文内容来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。本文仅在今日头条首发,请勿搬运。
在AI领域,探讨人工智能未来的走向和潜在风险一直备受关注。最近,OpenAI的CEO奥特曼在一场持续两小时的对话中,透露了一系列关于AI的观点和内幕信息。他认为,AI有可能杀死人类,这并非危言耸听,而是需要认真思考的问题。
奥特曼首先提到了关于ChatGPT的问题,他坦言连OpenAI团队也难以解读它的“进化”方式。
ChatGPT不仅仅是一个数据库,它具备推理能力,但这种能力出现的原因至今没有人能解释清楚。为了了解ChatGPT的思路,唯一的途径就是通过不断向它提问。奥特曼还表达了对马斯克的理解和支持,认为他是英雄,尽管在推特上的表现有时令人困惑。
然后,奥特曼透露了关于GPT-4的内幕信息,包括它的训练过程和如何解决不同价值观问题。GPT-4的训练过程依然采用了预训练 RLHF的方式,但相比预训练数据集,使用的数据要少得多。
他认为,对于GPT系列来说,ChatGPT才是最具里程碑意义的,因为它没有产品的实用性限制。
奥特曼还回应了关于GPT-4参数规模和训练数据集大小的问题,虽然他没有透露具体细节,但强调了参数规模并不是衡量AI质量的唯一标准,关键是AI能够为人类做什么。
奥特曼淡定地回应了关于GPT-4越狱的问题,认为这是可以解决的事情,就像过去人们越狱手机一样,只要AI的功能足够强大,用户的权限可以更广泛地开放,以满足他们的需求。
对于GPT的“偏见”问题,奥特曼承认在迭代过程中不可避免地会存在偏见,但他强调了外部参与的重要性,认为外部世界的集体智慧和能力可以帮助改进AI的个性化控制。
最后,奥特曼谈到了OpenAI的非营利性质逐渐削弱和AGI的发展。他指出,非营利性质不能永远支撑研究,商业化是必然选择。至于AGI,奥特曼表示,它应该超越人类科学知识总和,并具有创造性,目前的AI还需要进一步拓展才能达到这一水平。
相关文章
猜你喜欢