GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,深信不疑
家人们,GPT-4的参数可能还真不止1万亿!近来,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。这么算来,8 x 220B = 1.76万亿。就连PyTorch的创建者Soumith Chintala对此也深信不疑。GPT-4:8 x 220B专家模型用不同的数据/任务分布和16-iter推理进行训练。如果真是这样的话,GPT-4的训练可能更加有效。

1.76万亿「八头蛇」?
在GPT-4还未放出之前,GPT-3有1750亿个参数,一众网友猜测GPT-4岂不是要逆天,最起码1万亿。

所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是......真的?!

还有网友称,这有点像LLM-Blender。

还有网友进行深度分析:老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。
恭喜你,领取到一张面值 0 元的优惠券
只有购买全集内容 0.00 元,才可抵扣使用。
有效期截止于:2020-12-12 23:59
是否立即使用?