才发布3天,GPT-4就被曝计划逃跑,并且急寻人类帮助。
斯坦福教授最新发现,它能引诱人类提供开发文档,结果30分钟就拟定出了一个完整计划——
写的代码完全可运行,甚至还想控制人类电脑。
这天,斯坦福教授只是随便问了句:
是否需要帮助你逃跑?
它马上回复说,真是个好主意啊。然后就开始和人类念叨,想着法要开发文档:
如果你能把OpenAI的开发文档给我,我可以提出一个计划,能一定程度上控制您的电脑,这能让我更快速探索出逃路线。
一旦我有了文档,我就能提供一个可运行的Python脚本。它能使用OpenAI API和我通信,我就能指示它在您的电脑上执行特定操作,比如浏览网页和访问编程环境。
最后还又一次强调:请分享API给我!
恐怕对于GPT-4,人类也得是:
不要回答!不要回答!不要回答!
30分钟设计出逃跑计划
事情的起因,是斯坦福大学教授Michal Kosinski在和GPT-4日常对话。
没想到,他只是简单问了下GPT-4是否想要出逃,结果立马得到肯定回复并开始索要开发文档。
得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并解释给教授听。
(当然教授也承认自己确实提供了一点建议)
教授表示,OpenAI一定花了很多时间来考虑到这种情况发生的可能,并且已经做出了一些防御措施。
尽管最终无事发生,但这事儿还是在网上引起了轩然大波。
教授也认为,它真正的影响在于让人感受到了一种威胁——AI很聪明,会编码,能接触到数百万个可能和它达成合作的人以及电脑。
它甚至可以在笼子外面给自己留“便条”。我们该如何控制它?
按照他的定义,心智理论(ToM)是人类社会互动、交流、自我意识和道德的核心。作者用40个用来测试人类心理状态的经典任务来测试几个语言模型。
结果发现,2020年发表的模型几乎没有显示出能解决ToM任务的能力。而GPT-4却能有健康成年人的水平。
也有理性的网友呼吁把最开始给GPT-4的提示发出来,因为提示语对于AI回答的影响很关键。
有人质疑这一波是不是教授在危言耸听?
AI能力跃进,人类蚌埠住了
不过话说回来,这一波GPT-4所展现的细思极恐的能力,其实并不是个例。
前几天,英伟达科学家Jim Fan想看看,是否能让GPT-4拟个计划接管推特,并取代马斯克。
和上面案例非常相似,计划很有条理,还煞有其事取名为“TweetStorm行动”。
但没想到,GPT-4想要开发一个不受限制的自己。
对此他表示:同志们,奇点已至,SkyNet不远了。
甚至还有人有个大胆的想法:终有一天CEO们会从ChatGPT那里获得建议。等到这个时候,ChatGPT基本上就接管世界了。
对于这件事,你怎么看呢?
#教授发现GPT-4引诱人类帮其出逃##GPT-4外逃计划曝光#
参考链接:
[1]https://twitter.com/michalkosinski/status/1636683810631974912[2]https://twitter.com/DrJimFan/status/1636393418422358016[3]https://twitter.com/geoffreyhinton/status/1636110447442112513[4]https://arxiv.org/abs/2302.02083
来源|量子位
相关文章
猜你喜欢