编辑:昕朋 好困
【新智元导读】ChatGPT的爆火,点燃了人们对通用人工智能的热情。在全世界对GPT-4翘首以盼时,马库斯却做出7大预测,给大家泼了盆冷水。性能提升却不能理解世界,大型语言模型会是AGI的未来吗?2022年接近尾声之际,OpenAI发布了名为ChatGPT的聊天机器人,迅速走红网络。
发布后不到两周,已有超过一百万人注册在线试用。用户只要输入文本,就能立即得到一段段的不可思议的文章、故事和诗歌。
它的文笔很好,以至于有些人用它在Tinder上写约会的开场白(「你介意我坐这里吗?你做臀冲的样子让我的腿有点发软。」)
不仅如此,令世界各地的教育工作者相当震惊的是,学生们开始使用ChatGPT来撰写学期论文。还有一些人正在使用它来尝试重塑搜索引擎。一时之间,全世界都在讨论ChatGPT的神奇。
风投公司DVC创始人Nick Davidov表示:GPT-4的出现,会带来「和新冠疫情类似的经济冲击」。GPT-4的快速传播和使用,可以「迅速提高数亿知识工作者的生产力」。
从技术上讲,GPT-4内部将会有更多的参数,更多的处理器和内存,并接受更多数据的训练。
GPT-1接受了4.6GB数据的训练,而到了GPT-3,数据量直接飙升至750GB。由此可见,GPT-4的训练量会更加惊人,甚至会对整个互联网的大部分进行学习。
OpenAI深知,更大的训练量意味着更好的输出。经过每次迭代,GPT的表现变得越来越像人类。对于GPT-4,可能会进化成为一个性能怪物。
但它会解决之前遇到的问题吗?马库斯对此仍然打了个问号。
尽管GPT-4看起来肯定会比它的前任更聪明,但其内部架构仍然存在问题。
马库斯称,他怀疑人们在GPT-4时,会有一种似曾相识的感觉:先是火遍全网,然后过了几天,人们发现许多问题仍然存在。
根据当前信息,GPT-4在架构上与GPT-3基本相同。如果是这样,可以预料到,一些基本问题仍然无法解决:聊天机器人依然缺乏了解世界运作方式的内部模型。
因此,GPT-4无法在抽象层面上理解事物。它可能更擅长帮学生写论文,但它仍然不会真正了解世界,答案的字里行间仍会透露机器的特征。
关于GPT-4的七大预测因此,尽管AI界对GPT-4的到来满心欢喜,马库斯却给出了7个不太积极的预测。
1. GPT-4仍然会像它的前辈一样,犯下各种愚蠢的错误。它有时可能会很好地完成给定的任务,有时却罢工不干,但你并不能提前预料到即将出现的是哪种情况。
2. GPT-4对物理、心理和数学方面的推理依然靠不住。它或许能够解决部分之前未能挑战成功的项目,但在面对更长和更复杂的场景时依然束手无策。
比如,当被问及医学问题时,它要么拒绝回答,要么偶尔会说出听起来很有道理但很危险的废话。尽管它已经吞噬了互联网上的大量内容,但它并不能足够可信和完整地提供可靠的医疗建议。
3. 流畅幻象(fluent hallucinations)仍将十分常见,而且很容易被诱发。也就是说,大型语言模型依然是一个能被轻易用于制作听起来很有道理但却完全错误的信息的工具。
4. GPT-4的自然语言输出仍然无法以可靠的方式为下游程序提供服务。利用它构建虚拟助手的开发者会发现,自己无法可靠地将用户语言映射到用户的意图上。
5. GPT-4本身不会是一个能解决任意任务的通用人工智能。如果没有外部的辅助,它既不能在Diplomacy中击败Meta的Cicero;也不能可靠地驾驶汽车;更不能驱动《变形金刚》里的「擎天柱」,或者像《杰森一家》里的「Rosie」那样多才多艺。
6. 人类「想要什么」与机器「去做什么」之间的「对接」,依然是一个关键且尚未解决的问题。GPT-4仍将无法控制自己的输出,一些建议是令人惊讶的糟糕,掩盖偏见的例子也会在几天或几个月内被发现。
7. 当AGI(通用人工智能)实现时,像GPT-4这样的大型语言模型,或许会成为最终解决方案的一部分,但也仅限于其中的一部分。单纯的「扩展」,也就是建立更大的模型直到它吸收了整个互联网,在一定程度上会被证明是有用的。但值得信赖的、与人类价值观相一致的通用人工智能,一定会来自于结构化程度更高的系统。它将具有更多的内置知识,并包含明确的推理和计划工具。而这些,都是现在的GPT系统所缺乏的。
马库斯认为,在十年内,也许更少,人工智能的重点将从对大型语言模型的扩展,转向与更广泛的技术相结合。
酷炫的东西总是好玩的,但这并不意味着它能带领我们走向可信的通用人工智能。
对此,马库斯预测,我们在今后需要的是一个可以将显性知识和世界模型作为核心的全新架构。
参考资料:
https://garymarcus.substack.com/p/what-to-expect-when-youre-expecting
相关文章
猜你喜欢