> 自媒体 > AI人工智能 > AI的“iPhone 时刻”之后,英伟达新“核弹”为ChatGPT提速10倍
AI的“iPhone 时刻”之后,英伟达新“核弹”为ChatGPT提速10倍
来源:澎湃新闻
2023-06-25
224
管理

·英伟达在推理方面的全新GPU推理平台包括:4种配置(L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。

H100 NVL将英伟达的两个 H100 GPU 拼接在一起,以部署像 ChatGPT 这样的大型语言模型 (LLM)。

H100不是新的GPU,英伟达在一年前的GTC上展示了其Hopper架构,并在各种任务中加速AI推理(推理是机器学习程序部署的第二阶段,此时运行经过训练的程序以通过预测来回答问题)。英伟达表示,H100 NVL附带94GB内存,与上一代产品相比,H100的综合技术创新可以将大型语言模型的速度提高30倍。

据黄仁勋透露,H100 NVL预计将在今年下半年上市。

第二款芯片是用于AI Video的L4,在视频解码和转码、视频内容审核、视频通话功能上做了优化。英伟达称其可以提供比CPU高120倍的AI视频性能,同时能效提高99%。也就是说,一台8-GPU L4服务器,将取代一百多台用于处理AI视频的双插槽CPU服务器。

4种配置(L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。

总体而言,英伟达在推理方面的全新GPU推理平台包括:4种配置(L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片)、一个体系架构、一个软件栈,分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。

月租云端AI算力

在黄仁勋的主题演讲中,多次提到了ChatGPT的创建者OpenAI。黄仁勋于2016年向该公司交付了附有自己签名和赠语的全球第一台DGX。这台集成了8块通过NVLink共享算力的H100组成的超级计算机,为OpenAI奠定了创造ChatGPT的重要算力基础。

“自OpenAI使用DGX以后,《财富》100强企业中有一半安装了DGX AI超级计算机。DGX已成为AI领域的必备工具。”黄仁勋说。

在GTC大会上,英伟达推出云端人工智能DGX Cloud。DGX Cloud提供了专用的 NVIDIA DGX AI超级计算集群,用户能够按月租用这些计算资源,并使用简单的网络浏览器访问。从而消除在本地获取、部署和管理基础设施的成本,大大增加了AI的便捷性。

“如今通过一个浏览器,就能将DGX AI超级计算机即时地接入每家公司。”黄仁勋憧憬道。

光刻计算库cuLitho可将计算光刻加速40倍以上,使得2nm及更先进芯片的生产成为可能。

全球最大晶圆厂台积电、全球光刻机霸主阿斯麦、全球最大EDA巨头新思科技均参与合作并引入这项技术。该计划旨在加快制造光掩模的任务,光掩模是用以将集成电路以及其他各种电路通过光刻技术印制在晶圆上的图形母板,相当于书籍印刷的母板。

计算光刻模拟了光通过光学元件并与光刻胶相互作用时的行为,应用逆物理算法来预测掩膜板上的图案,以便在晶圆上生成最终图案。

光刻是芯片制造过程中最复杂、最昂贵、最关键的环节,其成本约占整个硅片加工成本的1/3甚至更多。计算光刻模拟了光通过光学元件并与光刻胶相互作用时的行为,应用逆物理算法来预测掩膜板上的图案,以便在晶圆上生成最终图案。

计算光刻是提高光刻分辨率、推动芯片制造达到2nm及更先进节点的关键手段。

“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿CPU小时。大型数据中心24X7全天候运行,以便创建用于光刻系统的掩膜板。这些数据中心是芯片制造商每年投资近2000亿美元的资本支出的一部分。”而黄仁勋说,cuLitho能够将计算光刻的速度提高到原来的40倍。

也就是说英伟达H100 GPU需要89块掩膜板,在CPU上运行时,处理单个掩膜板需要两周时间,而在GPU上运行cuLitho只需8小时。

据介绍,台积电可通过在500个DGX H100系统上使用cuLitho加速,将功率从35MW降至5MW,替代此前用于计算光刻的40000台CPU服务器。 使用cuLitho的晶圆厂,每天可以生产3-5倍多的光掩膜,仅使用当前配置电力的1/9。

黄仁勋说,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。它还将被集成到Synopsys的设计软件中,Synopsys是少数几家使用软件工具制造新芯片底板的公司之一。

新思科技董事长兼首席执行官Aart de Geus称,在英伟达的cuLitho平台上运行新思科技的光学邻近校正(OPC)软件,将性能从几周加速到几天。

台积电首席执行官魏哲家则夸赞它为台积电在芯片制造中广泛地部署光刻解决方案开辟了新的可能性,为半导体规模化做出重要贡献。阿斯麦首席执行官Peter Wennink称阿斯麦计划将对GPU的支持集成到其所有的计算光刻软件产品中。

其他更新

英伟达还推出了全新云服务及代工厂NVIDIA AI Foundations,这个云服务包括语言、视觉和生物学模型制作服务。

其中,NeMo是用于构建定制的语言文本转文本生成式模型。

Picasso是视觉语言模型构建服务。

而把这些素材导入NVIDIA Omniverse,就可以构建逼真的元宇宙应用,和数字孪生仿真。

BioNeMo是生命科学服务,提供AI模型训练和推理,加速药物研发中最耗时和成本最高的阶段,可加速新蛋白质和治疗方法的创建以及基因组学、化学、生物学和分子动力学研究。

直接在浏览器上或通过API,均可访问这些运行在NVIDIA DGX Cloud上的云服务。NeMo、BioNeMo云服务已开放早期访问,Picasso云服务正在私人预览中。

英伟达与Quantum Machines合作推出了一个量子控制链路,它可将英伟达GPU连接到量子计算机,以极快的速度进行纠错。

面向量子计算,要从量子噪声和退相干中恢复数据,需要对大量量子比特进行纠错。对此,英伟达与Quantum Machines合作推出了一个量子控制链路,它可将英伟达GPU连接到量子计算机,以极快的速度进行纠错。

面向元宇宙领域,英伟达推出了第三代OVX计算系统和新一代工作站,为基于NVIDIA Omniverse Enterprise的大规模数字孪生提供动力。

面向元宇宙领域,英伟达推出了第三代OVX计算系统和新一代工作站,为基于NVIDIA Omniverse Enterprise的大规模数字孪生提供动力。微软和英伟达正在将工业元宇宙引入Microsoft 365应用程序(如Teams)和Azure云。

微软也是Omniverse Cloud的首批云合作伙伴之一。英伟达的云服务预计将于今年下半年在Microsoft Azure上推出。Omniverse还将连接到Azure IoT,以便将来自 Azure Digital Twins的真实世界传感器数据传输到Omniverse模型。

Omniverse Cloud还瞄准了汽车行业,宝马、梅赛德斯-奔驰、沃尔沃、丰田和比亚迪等几家大公司已经在使用Omniverse执行各种任务。

此外,英伟达与三菱联合发布了将用于加速药物研发的日本第一台生成式AI超级计算机Tokyo-1。通过在Tokyo-1上使用NVIDIA BioNeMo软件,研究人员能运行高达数十亿参数的先进AI模型,包括蛋白质结构预测、小分子生成、姿态估计等。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
锦阳(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索