> 自媒体 > AI人工智能 > Open AI发布GPT-4,超预期还是低于预期?
Open AI发布GPT-4,超预期还是低于预期?
来源:金融界
2023-06-20
138
管理

行业更新系列

北京时间3月15日凌晨,Open AI发布ChatGPT-4。ChatGPT Plus的订阅者可以付费获得具有使用上限的GPT-4访问权限。在发布中,GPT-4展现了更强的能力,如:

创造力:GPT-4比此前的版本更具创造性和协作性。它可以生成、编辑,并与用户一起迭代创意和技术写作任务,例如作曲、写剧本或学习用户的写作风格。

图片输入:GPT-4可以接受图像作为输入,并基于此生成标题、分类和分析。

支持更长的输入:GPT-4能够处理超过25,000字的文本,允许用例,如长形式的内容创建,扩展对话,以及文档搜索和分析等。

我们并不希望单纯对GPT-4的新能力进行罗列,而是希望谈谈我们眼中GPT-4相对于此前版本的一些值得关注的进步,以及我们的理解。

亮点1:多模态的输入方式

多模态的意义不仅在于场景拓展,也在于模型自身的能力提升。

多模态的输入模式有望使得AI的应用场景被进一步拓展。多模态能力是目前市场中对于GPT-4讨论最多的点,但讨论往往集中在多模态相对于单模态在应用场景拓展方面的潜力。比如,大模型的能力能否被引入一些处理图片的场景中,让目前的产品变得更强大。

我们认为,除场景拓展外,同时值得关注的是多模态是否能够使模型本身的能力获得增强,并解决更为复杂的问题。如同人类感知世界的过程是通过输入文本、图片、视频等各类信息实现的,那么多模态能否使得模型本身获得更强甚至额外的能力值得关注。根据Open AI发布的结果,GPT-4在处理复杂问题时的表现明显好于此前的GPT-3.5。比如在模拟律师资格考试的任务中,GPT-4的分数落在前10%的考生中,而GP4-3.5的分数则落在了后10%。

亮点2:训练结果的可预测性

大模型的训练结果变得更可预测。根据Open AI的表述,“GPT-4的一个重点是构建了一个可预测的深度学习堆栈”,可以使用不超过GPT-4计算量千分之一的训练模型对GPT-4一些性能进行准确的预测。这使得我们能够在花费较少代价的情况下让AI模型的目标更符合人类的意图和价值观。一方面能够加快模型的迭代效率,毕竟针对特定模型进行广泛的调优是不现实的;另一方面,也有助于解决目前“ChatGPT会生成一些对人类有害或者歧视性答案”的问题。

亮点3:大模型能力来自于模型自身而非强化学习

模型能力似乎不受强化学习(RLHF)的显著影响。我们认为,这是GPT-4发布中另一个非常值得关注的点。

GPT系列大模型中诸如“推理能力”等一系列能力是“涌现”出来的,目前对于这些能力是如何产生的并没有共识。一方面,ChatGPT确实表现出了一定的“乌鸦智能”(该比喻源自朱松纯教授,将乌鸦和鹦鹉对比,乌鸦具有“理解”能力,而鹦鹉的问答方式是“鹦鹉学舌”)。但另一方面,其技术路线是“深度学习 强化学习”(其中强化学习是指GhatGPT利用了人类的反馈信息直接优化语言模型)。那么,这些“涌现”出来的能力究竟是来源于大模型本身,还是仅仅是“引入了强化学习后机器的回答更符合人的语言习惯”而产生的表象?

模型能力似乎并不来自强化学习。为了测试强化学习对于模型能力的影响,Open AI分别基于GPT-4基础模型和加入强化学习的GPT-4模型运行了一系列考试中的多项选择题部分。结果显示,在所有的考试中,基础的GPT-4模型的平均成绩为73.7%,而引入强化学习后的模型的平均成绩为74.0%,这意味着强化学习并没有显著改变基础模型的能力,换句话说,大模型的能力来自于模型本身。根据Open AI的表述,强化学习的意义更多地在于让模型的输出更符合人类的意图和习惯,而不是模型能力的提升(有时甚至会降低模型的考试成绩)。

本文源自券商研报精选

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
清水大树(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索