> 自媒体 > AI人工智能 > GPT-4的最大进步是同时解析文本和图像,但它可能没那么“震撼”
GPT-4的最大进步是同时解析文本和图像,但它可能没那么“震撼”
来源:界面新闻
2023-04-29
144
管理

界面新闻记者 | 李京亚

界面新闻编辑 |

历经几个月的传言和猜测,OpenAI以超出业界预期的速度推出了GPT-4,这也是其最强版本的多模态预训练大模型。

OpenAI官方把GPT-4称之为“世界第一款高体验、强能力的先进AI系统”,且比之前版本更有创造性和协作性,可以更准确地解决困难问题。

根据OpenAI进一步的解释,GPT-4历经的这6个月漫长训练是为了解决可靠性和安全性问题,在OpenAI的内部测试中, “与GPT-3.5相比,对不允许的内容请求的回应减少了82%,产生事实性回应的可能性增加了40%。”

这说明,回复的准确度是GPT-4的一项重大改进,在任务的复杂度达到更高阈值时,GPT-4的优势应该会有所显现,但这都有待业界进一步测试反馈。

事实上,GPT-4相比ChatGPT的跨跃性改进只有一项:GPT-4是一个多模态的预训练大模型,可以接受文本和图像输出,并输出文本回应,对其生成标题、分类和分析。

在这个改进中,GPT-4能做到的媒介种类变化的数量比业界所预测的略少,但GPT-4还能够做到生成歌词、创意文本,实现风格变化,算是一大亮点补充。

该版本的另一项显著改进在于能处理的文本内容长度——超过25000个单词的文本,能进行文档搜索和分析,并能处理更细微的指令。

更大的文本容量意味着更高的算力需求。国泰君安计算机团队在研报中指出,GPT-4不再强调参数规模扩张,开始注重模型表现,后续需要更多算力挖掘GPT-4的全部潜能。日前,OpenAI首席执行官Sam Altman在问答中亦提到,GPT-4占用的算力总量要超过GPT-3。

已有一些团队对GPT-4的体验效果进行了测试。《少数派》提到,从目前体验来看,GPT-4的答复效果比ChatGPT-3.5 Turbo稍有提升,对于语义逻辑性的把握比老版本显著较好,但新模型的答复非常慢。

而在一篇研究博文中,OpenAI称GPT-4与其前身GPT-3.5(GPT-3.5即是支持ChatGPT的大模型)之间的区别在聊天功能中表现的非常微弱。

Sam Altman在推特上表示,GPT-4“仍然有缺陷,有局限性”,但“第一次使用时似乎比你花更多时间使用它后更令人印象深刻。”此前,Sam Altman反复表示对ChatGPT的答复效果并不满意。

GPT-4目前尚未全面开放API接口,但提供了三种接入方式:

第一种,GPT-4发布后,OpenAI直接将ChatGPT进行升级,ChatGPT Plus(OpenAI的每月20美元ChatGPT付费服务)的订阅用户今天就可以在chat.openai.com上直接体验;

第二种,微软的新版必应搜索已经直接用上了GPT-4,用户也可以通过必应体验;

第三种,用户和开发人员今天就可以加入GPT-4的访问等待列表。

整个科技界此前对GPT-4的期待可以用“望穿秋水”来形容,对其能力的颠覆性猜测也激起层层声浪,但从OpenAI自己的公告和Sam Altman的发声来看,GPT-4的改进很难说是跨越性的,更多是在反复微调中逐步推进,就像OpenAI内部打磨ChatGPT的过程一样。

OpenAI直言不讳的年轻首席执行官1月接受StrictlyVC采访时说,“GPT-4的业界传言是荒谬的,我不知道这一切从何而来。”“人们在乞求失望,他们会失望的。这种炒作就像... 我们没有一个真正的AGI(通用人工智能),这也算是对我们的期望吧。”

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
兰花草(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索