编辑:Aeneas 润
【新智元导读】GPT-4已经会自己设计芯片了!芯片设计行业的一个老大难问题HDL,已经被GPT-4顺利解决。并且,它设计的130nm芯片,已经成功流片。GPT-4,已经可以帮人类造芯片了!
只用简单的英语对话,纽约大学Tandon工程学院的研究人员就通过GPT-4造出了一个芯片。
具体来说,GPT-4通过来回对话,就生成了可行的Verilog。随后将基准测试和处理器发送到Skywater 130 nm穿梭机上成功流片(tapeout)。
这项成就,堪称史无前例。
通常情况下,开发任何类型的硬件(包括芯片),第一步都是用日常语言描述硬件功能。
随后,经过专门培训的工程师会把这个描述翻译成硬件描述语言 (HDL),由此创建允许硬件执行任务的实际电路元件。
Verilog就是一个经典的例子。在这项研究中,大语言模型能够通过来回对话生成可行的Verilog。随后就是将基准测试和处理器发送到Skywater 130 nm穿梭机上,进行流片(tapeout)。
纽约大学坦登电气与计算机工程系以及网络安全中心的研究助理教授Dr. Hammond Pearce介绍说,之所以启动这个Chip Chat项目,是希望探索大语言模型在硬件设计领域的能力。
在他们看来,这些大语言模型不仅仅是「玩具」,而是有潜力做更多事情。为了验证这个概念,Chip Chat项目诞生了。
我们都知道,OpenAI的ChatGPT和谷歌的Bard都可以生成不同编程语言的软件代码,但它们在硬件设计的应用中尚未得到广泛的研究。
而NYU的这项研究表明,AI不仅可以生成软件代码,还能使硬件制造收益。
大语言模型的优点在于,我们可以采用对话的方式与其交互,这样,我们就能通过有来有回的方式,来完善硬件的设计。
所以,如果真的将大语言模型用于芯片设计,在现阶段是否可行呢?
研究人员表示,相关的安全因素以及可能导致的问题,还需要通过进一步测试来识别和解决。
在疫情期间的芯片短缺,已经阻碍了汽车以及其他依赖芯片设备的供应,如果大语言模型真的能够在实践中设计芯片,无疑会大大缓解这种短缺。
四大LLM芯片设计大PK
研究人员首先设置了设计流程图和评估标准,来给大语言模型在芯片设计方面的表现打分。对话框架形成了一个反馈循环。
通过这个「半自动化」流程,研究人员想对比一下4个大语言模型(GPT-4,ChatGPT,Bard,HuggingChat),执行芯片设计的能力。
在设计的过程中,人类工程师负责引导GPT-4,验证它的输出。
GPT-4单独负责处理器的Verilog代码的编写,同时还制定了处理器的大部分规格。
具体来说,研究团队将较大的设计项目细分成子任务,每个子任务在界面中都有自己 的「对话线程」。
由于ChatGPT-4不会在线程之间共享信息,工程师要将从上一个线程复制相关信息到新的第一个消息中, 从而形成一个慢慢定义处理器的「基础规范」。
基本规范最终包 括ISA、寄存器列表、内存库、ALU和控制单元的定义,以及处理器在每 个周期中应该做什么的高级概述。
这个规范中的大多数信息都是由ChatGPT-4生成的,工程师只做了一些复制/粘贴的工作,并稍加编辑。
ChatGPT-4有时会输出不是很理想的响应内容。
出现这种情况,工程师可能会做出两个选择,要么继续对话并推动它修复响应,或使用接口强制ChatGPT-4「重启」响应,即通过假装之前的答案从未发生来重新生成结果。
在这两者之间进行选择需要专业的判断:继续对话允许用户指定前一个响应的哪些部分是好的或坏的,而重新生成将保持整个对话更短和更简洁(考虑到有限 的上下文窗口大小,这是有价值的)。
尽管如此,从下图中 的‘#Restart ‘列可以看出,随着工程师对使用ChatGPT-4越来越 有经验,重启次数趋于减少。
研究者在论文中展示了一个最为困难,重启了10次的提示和回复实例,是一段关于控制信号规划的内容(Control Signal Planning)。
设计结果
设计流程的全部对话内容可以在下面的链接中查阅:
https://zenodo.org/record/7953724
GPT-4参与生成的指令系统结构(Instruction Set Architecture,ISA)如下图所示。
最后,研究人员评价道:「大语言模型能够成倍放大设计能力,让设计人员能够快速地设计空间探索(space exploration)和迭代」。
「总体上来说,GPT-4可以生成能使用的代码,节省大量的设计时间。」
参考资料:
相关文章
猜你喜欢