> 自媒体 > AI人工智能 > ChatGPT如何改变算力?
ChatGPT如何改变算力?
来源:金融界
2023-04-07
205
管理

由OpenAI开发的AI聊天机器人ChatGPT自去年11月推出后一路“狂飙”,行业的快速发展与商业的落地前景令人期待。

01 芯片需求=量↑ x 价↑

AIGC拉动芯片产业量价齐

ChatGPT热潮席卷全球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的对话AI模型,一经面世便受到广泛关注,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。

1)量:AIGC带来的全新场景 原场景流量大幅提高。

①技术原理角度:ChatGPT基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大;

②运行条件角度:ChatGPT完美运行的三个条件:训练数据 模型算法 算力,需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。

2)价:对高端芯片的需求将拉动芯片均价。

采购一片英伟达顶级GPU成本为8万元, GPU服务器成本通常超过40万元。支撑ChatGPT的算力基础设施至少需要上万颗英伟达GPU A100,高端芯片需求的快速增加会进一步拉高芯片均价。

02 ChatGPT的“背后英雄”:芯片

01 GPU:支撑强大算力需求

由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片。看好海光信息、景嘉微;

02 CPU:可用于推理/预测

AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。看好龙芯中科、中国长城。

03 FPGA:可通过深度学习

分布集群数据传输赋能大模型

FPGA具备灵活性高、开发周期短、低延时、并行计算等优势。看好安路科技、复旦微电、紫光国微。

04 ASIC:极致性能和功耗表现

AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势。看好寒武纪、澜起科技;

05 光模块:容易被忽略的算力瓶颈

伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。看好德科立、天孚通信、中际旭创。

风险提示

1、AI技术发展不及预期2、版权、伦理和监管风险3、半导体下游需求不及预期

本文源自券商研报精选

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
快乐的老范(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索