> 自媒体 > AI人工智能 > 陈巍:GPT-4究竟会展现出怎样的能力?
陈巍:GPT-4究竟会展现出怎样的能力?
来源:中新经纬
2023-05-15
275
管理

中新经纬3月16日电 题:GPT-4究竟会展现出怎样的能力?

作者 陈巍 中关村云计算产业联盟、中国光学工程学会专家

3月14日,OpenAI发布了最新NLP(自然语言处理)大作“GPT-4”。GPT-4的技术报告里把OpenAI团队作为唯一作者。参与项目的有数百人,堪称新时代的AI登月工程。

能看明白图梗的大型多模态模型

与ChatGPT稍有不同,GPT-4是一个大型多模态模型(输入图像和文本,文本输出)。其中GPT是生成式预训练模型的缩写。大型多模态模型可以广泛用于对话系统、文本摘要和机器翻译。一般情况下,大型多模态模型包括额外的视觉语言模型组件(VLM)。

GPT-4实际上是在2022年8月完成训练的,直到2023年3月14日才发布。在发布之前,OpenAI一直在对该模型进行对抗性测试和改进。GPT-4的内容窗口能支持多达32000个token(令牌)。

但更为有趣的是,GPT-4已经能看懂一些图梗了,不再仅仅是对话助手。当然,这离大家期待的看懂视频还有一段距离。

据OpenAI介绍,虽然目前GPT-4在现实场景中的能力可能不如人类,但在各种专业和学术考试上表现出明显超越人类水平的能力,包括大家熟悉的GRE考试,堪称考试小能手。

这对孩子们是不是一个坏消息?例如,GPT-4在模拟律师考试中,分数排在应试者的前10%左右。GPT-4也优于现有的其他语言模型。相比之下,GPT-3.5的得分则在倒数10%附近。如果GPT-4来做中国的高考卷,是不是能上北大清华了?

GPT-4技术特征和不足

与ChatGPT类似,GPT-4也是一种基于Transformer的大模型,支持多国语言,经过预训练可以预测或自动生成文本。

OpenAI表示,对GPT-4而言,训练后的对齐(Alignment)是提高性能和改善体验的关键。从技术上看,人类反馈强化学习(RLHF)微调仍然是GPT-4的要点。考虑到LLM(第四代大型语言模型)领域的竞争格局和GPT-4等大型模型的安全隐患,OpenAI暂时还未公布GPT-4的模型架构、模型大小、训练技术。

相对于GPT-3.5和其他大语言模型,GPT-4在复杂任务上表现出更可靠、更有创意,并且能够处理更细微的指示的关键特征。GPT-4可以接受文本和图像提示,并允许用户指定任何视觉或语言任务。例如,GPT-4可以在给定由分散的文本和图像组成的输入的情况下反馈文本输出(例如自然语言、代码等)。在带有文本和照片的文档、图表或屏幕截图方面,GPT-4 也驾轻就熟。此外,GPT-4包括few-shot和思维链提示。对于公众来说,图像输入仍然是仅供内部研究预览,并不公开。而且,这次GPT-4直接整合入Bing搜索引擎之中。

GPT-4也有一些不足,例如仍然会一本正经地胡说八道,上下文连续对话轮次有限,并且无法从经验中学习。因此如果不对GPT-4的使用进行安全性限制,GPT-4可能会产生大量的认知偏差、虚假信息,甚至侵犯个人隐私。另外,由于数据集时效的原因,GPT-4缺乏对2021年9 月之后的事件的了解。GPT-4有时会犯一些简单的推理错误,也可能会像人类一样在技术难题上出现错误,例如GPT-4可能在生成的代码中引入安全漏洞。

训练价值和安全性技术表现如何?

OpenAI表示,在过去2年的GPT-4研发中,超算和训练技术表现出至关重要的价值。OpenAI与Azure的超算团队一起,共同设计了针对大模型训练的超级计算机,为GPT-4的训练提供了关键的算力支撑和研发加速。OpenAI在GPT-4技术报告中,甚至把Supercomputing lead(超级计算领导)和Infrastructure lead(基础设施领导)的排名放在了预训练模型团队的最前面。

OpenAI的团队从理论基础层面进行优化,改进了GPT-3.5的一些bug,使得GPT-4能够前所未有地进行稳定高速的训练。这方面可以看出OpenAI团队的数学和计算理论功底。

从技术报告描述的模型训练过程来看,GPT-4的训练与GPT-3.5类似。包括SFT(有监督微调)的预训练、基于RLHF(人类反馈强化学习)的奖励模型训练和强化学习的PPO(近端策略优化)算法微调。与之前的GPT模型不同的是,OpenAI使用基于规则的奖励模型(RBRM) 在PPO微调期间向GPT-4提供额外的奖励信号。

OpenAI投入了大量资源来提高GPT-4的安全性和一致性。包括引入专家进行对抗性测试和红队测试,模型辅助的安全流水线以及安全指标的改进。OpenAI引入的安全专家达到了50多人,覆盖AI一致性风险、网络安全、生物风险等领域。

与ChatGPT一样,OpenAI使用强化学习和人类反馈 (RLHF) 来微调模型的行为,以产生更符合用户意图的响应。但当给定不安全的输入时,模型可能会生成不良内容,例如提供有关犯罪的建议。另外,模型也可能对安全输入变得过于谨慎,拒绝无害的请求。

GPT-4的安全流水线包括两个主要部分:一组额外的安全相关 RLHF训练提示,以及基于规则的奖励模型(RBRM)。RBRM是一组zero-shot GPT-4 分类器。这些分类器在RLHF微调期间为GPT-4策略模型提供额外的奖励信号,以正确的输出行为为目标进行训练,例如拒绝生成有害内容或不拒绝无害的请求。(中新经纬APP)

本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。

责任编辑:孙庆阳

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
冷熙(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索