图片来源@视觉中国
人工智能(AI)聊天机器模型ChatGPT风潮狂飙超过百日,包括马斯克在内的商界大佬、科技巨头以及各国政府都已开始着手围剿GPT。
钛媒体App获悉,北京时间4月25日凌晨的RSA 2023大会上,美国科技巨头谷歌(Google)宣布推出基于Sec-PaLM LLM大模型技术的谷歌云安全 AI 工作台(Security AI Workbench),与微软GPT-4版Security Copilot竞争。而5天前,谷歌CEO官宣谷歌大脑和DeepMind两大团队合并,组成“Google DeepMind”部门,以应对ChatGPT带来的技术冲击以及领导研发谷歌多模态 AI 模型项目等。
不止是谷歌,亚马逊(Amazon)也加入到了GPT战局,日前推出AI大模型服务Amazon Bedrock等,阻击基于GPT-4的微软云全新大模型云服务方案;亿万富翁、特斯拉CEO马斯克(Elon Musk)日前也成立了一家人工智能公司X.AI,囤下1万张英伟达A100 GPU(图形处理器)芯片,目标要对抗ChatGPT和其背后的OpenAI公司。
GPT的风险问题也引起各国重视,开启了下场调查和监管。
3月31日,意大利打响调查ChatGPT第一枪,要求暂时禁止使用ChatGPT,并对OpenAI公司展开调查;随后法国、爱尔兰、西班牙跟进,欧洲数据保护委员会则成立专门工作组开展调查;美国商务部下属部门4月11日向公众征求意见,研究是否在新型 AI 模型发布前进行审核认证;马斯克等科技大佬发布公开信为暂停开发 AI 模型之后,微软、谷歌、苹果、英伟达4月12日共同商议并制定AI相关安全协议。
国内方面,3月以来,互联网科技大厂纷纷下场,一些前AI大佬们也重新出山,开启“百模大战”。阿里通义千问、百度文心一言、商汤日日新SenseNova体系、华为云盘古、昆仑万维“天工”和京东言犀等大模型产品陆续公布,创新工场CEO李开复、前百度总裁陆奇、美团联合创始人王慧文、搜狗创始人王小川、前谷歌科学家李志飞等商业大咖陆续下场,加入到这场大模型竞速中。
所有人都已感受到GPT带来的焦虑,纷纷下场开启围剿GPT行动。
据钛媒体App的梳理统计,自去年11月末至今,全球企业、科研机构已经公布总计超过20个大模型产品。
多位行业人士告诉钛媒体App,目前国内类ChatGPT基本等同于GPT-3及以下的技术水平。与最新GPT-4相比,国内产品差距的主要原因与技术不强、算力不够、产品体验差、工程化能力弱等因素有关。
如今,为了争夺“中国版OpenAI”席位,国内 AI 行业处于尴尬局面。如果跟随,不一定有足够资源做出媲美大厂的产品,如果不跟,又很容易被新进入者颠覆。因此,“重复造轮子”情况已然发生,“你有我也要有”、“人人都做大模型”时代正在到来。
OpenAI似乎也开始“灭火”。公司CEO奥特曼(Sam Altman)4月中旬表示,目前OpenAI没有训练GPT-5,而是要继续优化和扩展GPT-4功能,此前消息称GPT-5将会在2023年底公测。
算力、商业化成挑战算力资源是这场大模型竞争中的入场券。
“超过千亿级别的大模型,它的训练大概需要1000-2000张A100的卡,没有2000张A100的卡,实验都做不了。硬件成本约5000万美金,加上人力、电力、网络支出,一年需要5000万美金到1亿美金的投入。”昆仑万维集团CEO方汉表示。
工信部最新数据显示,截至2022年6月,中国算力总规模仅次于美国排名全球第二,在全球算力分布中占比26%。近5年,中国算力总规模年均增速超过25%,算力需求不断提升。
事实上,尽管 AI 算力发展不是一个新鲜的话题,但随着ChatGPT的崛起,基于服务器芯片的 AI 算力需求愈加强烈,在外界高需求、高关注、高压力之下,现有的服务器瞬时算力很难支撑高达千亿参数的大模型推理训练,大模型已经遭遇算力瓶颈。
4月初,以“访问需求量过大”为由,OpenAI暂停了一天ChatGPT付费服务注册,并在亚洲等区域大规模清理批量注册的OpenAI账号。随后有市场有人猜测,ChatGPT已有GPU(图形处理器)芯片已不够承载目前的用户量,进而质疑ChatGPT的盈利模式是否持久,引发市场关注。
无独有偶。钛媒体App发现,4月17日下午,百度文心一言也出现了访问需求量过大问题,显示“当前使用人数较多,服务可能响应缓慢”。
据央视财经引述一位行业专家称,虽然中国的数据中心已形成较大规模,但智算中心和边缘数据中心的占比仍有待提高。据悉,中国 AI 服务器的市场规模大概400亿至500亿元,今年市场增速将超过30%。
根据英伟达公布的信息,训练一次1750亿参数的GPT-3需要34天、使用1024张A100 GPU芯片,同时,OpenAI可能至少需要3.24万张A100用于日常推理,显著高于此前训练底层模型时的用量,以此推算,ChatGPT硬件成本达8亿美元以上。
印奇则透露,要做成GPT大模型,至少得要1万张英伟达A100 GPU芯片,硬件投入就需要20亿元,中国目前可用作大模型训练的A100芯片总共只有4万张。
据The Information报道,包括亚马逊、微软、Google 和甲骨文等主要云计算供应商都在限制客户对云服务器的使用,一些客户称租用硬件的等待时间长达数月,核心问题仍是GPU等算力芯片供不应求。尽管像微软这样的厂商已经在其60多个数据中心部署了数十万张GPU芯片,用于 AI 模型的日常推理。
随着GPT-4发布,市场普遍认为需百倍的芯片及其算力支持,英伟达(NASDAQ: NVDA)股价也随即飙升,年初至今大涨86%以上。
不过,受2022年10月美国商务部半导体出口管制新政影响,英伟达A100及H100以上芯片不能出口给中国客户,从而在硬件上对中国大模型发展形成钳制。
钛媒体App了解到,中国目前能采购的A800实测性能比A100低5%-10%,而最新应用GPT-4的英伟达H100新片,比中国特供版H800的性能差距超过60%。但目前国内拥有英伟达A100/A800的厂商只有阿里、腾讯、字节跳动等几家科技巨头,大部分企业对高端GPU并没有直接采购需求,而是用更经济的调用云服务商的云计算能力,或是租用GPU芯片等硬件设备。
印奇认为,中国 AI 大模型发展过程中,“缺芯”将是一大风险。他告诉钛媒体App,AI 芯片制造(Fab)是很大的技术难点。
一位行业人士对钛媒体App表示,由于大模型需要巨大的算力支持,现在百度缺少芯片,其正在为文心一言大量、溢价50%以上采购英伟达A100/A800芯片和服务器卡,“百度现在说有多少就要多少。去年百度采购的英伟达服务器芯片现在才发货,现货溢价很高,因为英伟达也在涨价。”上述人士表示。
据芯片分销平台数据,国内A100芯片现货市场价已经从7万元涨至9万元。另据财新,英伟达A800在国内也已被炒到原价2倍多,且紧俏到脱销。
目前,国内外大模型厂商普遍追加了对英伟达GPU的采购预算,而国内厂商未来一年算力需求主要还是在训练,对GPU的需求更高。
不过,国产 AI 芯片算力是否成为大模型“卡脖子”因素还存疑。王小川告诉钛媒体App,中国可以购买的英伟达A800芯片,性能差距不大,目前不会成为“卡脖子”的瓶颈,尤其他对未来国产芯片技术突破有信心。
但清华大学计算机科学与技术系教授唐杰却指出,随着大模型训练参数不断扩大,国内大模型厂商在底层算力的差距将进一步放大。“英伟达H100也逐渐量产了,它训练千亿参数非常快。如果我们未来的芯片不能快速发展,差距会越来越大,目前也没有任何机会跟他们缩短距离。”
一位行业人士向钛媒体App直言,目前国产GPU类型芯片无法取代英伟达A100/H100,国内 AI 芯片很难跑动大模型。
商汤科技联合创始人杨帆今年2月的一次演讲中提到,国产 AI 芯片在产业落地中会遇到两大挑战:一是 AI 芯片与框架耦合性差,适配工作量巨大;二是链路长,国产芯片对 AI 场景的理解能力不强。他提及,训练大模型常遇到“梯度爆炸”或者硬件故障造成机器过载迭机,整个系统都会跟着受到影响,以前迭机频率是10分钟一次。
今年3月业内消息称,英伟达已经向台积电增加A100/H100和A800 GPU芯片生产订单,但其生产交付周期大约为两到三个月。这意味着,企业当下预定英伟达芯片,预计今年下半年或明年才能到货,但届时国内外大模型产品早已遍地开花。
除了算力之外,商业化变现也是GPT大模型发展的另一挑战。
消费端方面,今年2月2日,OpenAI公司宣布推出付费试点订阅计划ChatGPT Plus,定价每月20美元。付费版功能包括高峰时段免排队、快速响应以及优先获得新功能和改进等,同时该公司仍将提供对ChatGPT的免费访问权限。据媒体测算,基于1亿用户、每月20美元计算,ChatGPT年收入将超过200亿美元。
同时,企业端方面,OpenAI技术与微软业务融合不断加深,微软正借助GPT技术加持,在搜索广告、云服务模式等领域实现商业化落地。不仅如此,消费端可以明显感受到,当前微软Bing已经集成GPT-4, Office和电子邮件已经集成了由GPT-4驱动的Copilot,可以大幅提升办公效率,吸引更多微软付费用户。
多家券商研报认为,随着GPT-4、文心一言等大模型逐渐优化和完善,搜索引擎、智能客服、内容创作(小说、广告文案等)等相关应用有望率先商业化,尤其在媒体、广告营销、文学、教育、金融、智能汽车等领域均有望迎来变革。目前,Shopify、返利科技等多家电商相关企业开始接入ChatGPT,称希望提升运营效率。
创新工场董事长兼CEO李开复表示,以ChatGPT为首的AI 2.0将在电商/广告、影视/娱乐、搜索引擎、元宇宙/游戏、金融、医疗六大领域加速 AI 的商业化潜能,进入提升生产力的应用井喷期,并提高社会生产力。他引述报告称,预计到2032年,AIGC 全球市场规模将超过2000亿美元。
不过,晨星亚洲高级分析师王凯却表示,目前讨论中国企业能否从类ChatGPT产品中获得多少收入或利润还为时过早,大家仍在探索应用场景,仍需要弄清楚国内类ChatGPT产品将如何商业化。
IDC中国研究总监卢言霞则指出,仅仅依靠大语言模型不会为任何公司提供持续的优势,类似 ChatGPT 的技术目前对市场的影响也有限,而从长远来看,许多相关的 AI 模型甚至可能变得无关紧要。很多科技巨头花费大量资金最终可能却无法获得成功回报。
“要做出AI大模型,在硬件工程、算法和数据三方面,都需要专业经验的沉淀和积累,拿到资金和硬件等资源,只是拿到了张入场券而已。”杨帆表示,产业对 AI 的理解不足是重要问题之一。
王小川告诉钛媒体App,他认为最终科技大厂会一人推出一个模型,本轮参与的创业公司里面可能最终只有不到5个大模型会拿到“通行船票”。
人人造大模型,但 AI 不能取代人类4月12日,微软宣布开源DeepSpeed Chat,帮助用户轻松训练类ChatGPT等大语言模型,用户通过DeepSpeed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型。
例如,一个130亿参数的类ChatGPT模型,只需1.25小时就能完成训练。
这意味着,这类开源大模型商业化,正使得每个人、每家企业都能拥有自己的ChatGPT。人人造大模型的时代正加速到来。
周鸿祎向钛媒体App进一步解释,现在GPT技术已经开源而且扩散,这个不存在重复开发问题。“就像你可以用公有云的服务,但很多公司也会用私有云、自己的私有数据库,因此每家企业都可以训练一个私有的GPT只给企业自己或客户。从保密和专属需求来说,看企业根据自己的需要设置公用模式或专用模式。”
不过,这种人人造大模型是否存在实际商业化应用需求,技术风险是否存在,目前仍未知。
实际上,ChatGPT不仅让 AI 迎来“iPhone 时刻”,而且还打开了一个 AI 算法的“潘多拉魔盒”。
可以遇见,未来借由通用人工智能(AGI)等新技术,教育、科技、内容生产等几乎全社会各行业都面临着生产力和生产关系的重塑。
高盛公布的一份报告预计,全球未来平均18%的工作岗位或可由生成式AI自动化完成,约有3亿个全职岗位将受影响。由于生成式AI目前还无法进行体力劳动,受影响的主要是白领工作,且对发达国家的影响将比发展中国家更大。
因此,马斯克等千余名业界、学界人士3月29日联署发表公开信质问OpenAI:是否该让 AI 替换人类的工作?是否应该发展非人类思维,让它们最终在数量和智力上超越、淘汰井取代人类?
“虽然 AI 很多能力不断在发展,甚至它的一些能力已经等同于甚至超过人的能力,但是 AI 也永远不会跟人的智能完全划等号。AI 运行还是在人类设计的这些算法,以及教它学的这些数据的基础上,完成他的一些智能的这种理解生成动作等。它并不具备控制人类的能力。”百度CTO王海峰在4月16日一场演讲中表示,他认为 AI 不会产生像人一样的意识行为。
商汤联合创始人、CEO徐立则表示,“AI是生产‘生产力工具’的工具,它将开启软件开发新范式,把我们带入‘新二八定律’的时代,80%的工作由机器完成,20%的工作由人来做。”
更多 AI 行业人士普遍认为,AI 依然是一个辅助工具。
不过,马斯克却认为,人类文明未来面临的最大风险之一是 AI。他认为AI 发展不受限制会带来危险,“人工智能比核弹头危险得多。”
实际上,过去70多年间,全球 AI 技术发展迅猛,尽管此前数据量不够、算法不强、商业化不如预期,但如今,在ChatGPT催化下,全球 AI 行业迎来新一波狂潮。这一次,AI 算法、算力、数据“三驾马车”同步突破,AI 技术已经蓄能完毕,所有人终于可以大展身手。
在 AI 逐渐平民化的今天,商界大佬、科技巨头以及各国政府都开始围剿ChatGPT,建构自己的“护城河”。
随着市场从火热转回冷静,重新回归商业化本质,这场 AI 大模型战争似乎仍会持续下去。(本文首发钛媒体App,作者|林志佳)
相关文章
猜你喜欢