事实证明,这位 GPT-4 用户并不是一个人——该帖下,许多用户都留言称:“我也很有同感!”
问题百出的新版 GPT-4
根据许多使用者的反馈,GPT-4 除了在长篇内容的分析和创作上表现有所退步,在写作质量上也有所下滑。
Roblox 的产品负责人 Peter Yang 在推特上表示,GPT-4 模型的输出更快了,但质量变差了:“只是简单的问题,例如让写作更清晰简洁并提供想法……在我看来,写作质量下降了。”
GPT-4 架构曝光?
由于用户对于 GPT-4 “变蠢”的反馈越来越多,本周几位 AI 专家也发布了所谓的“GPT-4 架构细节”。
其中,一位名为 Yam Peleg 的推特博主表示, GPT-4 有大约 1.8 万亿个参数,横跨 120 层,比 GPT-3 大 10 倍以上,在约 13T token 上进行训练,训练成本约为 6300 万美元……值得一提的是,Yam Peleg 也表示 OpenAI 在采用 MoE,即通过使用 16 个混合专家模型来降低 GPT-4 运行的成本。
截至目前,OpenAI 方面并没有对这一说法做出回应。不过 Allen 人工智能研究所的创始首席执行官 Oren Etzioni 向媒体表示:“虽然我也没得到证实,但我认为这些猜测应该大致正确。”
他解释道,一般使用 MOE 方法有两种原因:要么想要生成更好的响应,要么想要更便宜、更快的响应。
“理想情况下 MOE 会让你同时获得这两方面的优势,但现实中通常需要在成本和质量之间做出权衡。”基于此,Oren Etzioni 认为结合现在的情况来看,OpenAI 似乎为了降低 GPT-4 的成本而牺牲了一些质量。
那么对于这件事,你的看法又是什么呢?
参考链接:
https://community.openai.com/t/has-there-been-a-recent-decrease-in-gpt-4-quality/207392/9
https://the-decoder.com/gpt-4-architecture-datasets-costs-and-more-leaked/
相关文章
猜你喜欢