金磊 发自 凹非寺
量子位 | 公众号 QbitAI
中国何时会有一个大模型,能以极强的泛化能力,创建各种智能体、成为人类真正的助手?
在各大科技公司卷了半年的生成式AI热潮趋于冷静期的当下,这是一个极其值得思考的问题。
很多人会说,目前可能只有被称为业界标杆的GPT-4才能胜任,甚至对它加以“唯一”这样的头衔。
而与此同时,着眼于国内,即使这半年来各个大模型玩家争先恐后抢着落地,但“需要两到三年才能追赶GPT-4”的声音也是甚上尘嚣。
然而就在最近,一个名为InternLM-123B的国产预训练大语言模型,似乎将这种差距感极大地给拉近了一些。
因为在一场顶尖大模型“同台竞技”中,它的表现实属有些亮眼:
• 12项成绩排名第一。• 综合实力全球第二,部分成绩超越GPT-4。• 绝大部分性能超越ChatGPT和LLaMa-2-70B。
时隔仅仅两个月(今年6月),商汤再次联合上海人工智能实验室发布InternLM-104B版本,并且当时在三个全球权威测评基准中(MMLU、AGIEval、C-Eval)的表现就均已超越ChatGPT。
不仅如此,在大模型的“玩法”上,商汤也是国内众多玩家里最早引入“工具调用”的选手之一。
例如知识库挂载,实现了无需训练,便可快速融合知识生成;搭配企业知识库可以快速解决相关领域问题。
再如InternLM-Chat-7B版本,也是在这种“玩法”之下,成为了第一个具有代码解释能力的开源对话模型。
能够根据需要灵活调用Python解释器等外部工具,在解决复杂数学计算等任务上的能力显著提升;此外,该模型还可通过搜索引擎获取实时信息,提供具有时效性的回答。
并且从第三方对于大模型掌握工具能力的评估结果来看,InternLM-Chat-7B也是领先于主流“选手”。
在此之后,商汤大语言模型的发展,也就来到了我们最开始所提到的InternLM-123B,是仅次于GPT-4,综合实力位居全球第二的水平。
所以现在把发展路径中的几个重要迭代时间节点拎出来就是:四月→六月→七月→八月。
不得不说,快,着实是快。
在与商汤联合创始人兼大装置首席科学家林达华交流过程中,我们了解到如此迭代速度的背后还有一个“杀手锏”——数据处理。
这里所指的并非只是数据的总量,商汤更侧重的是足够强、高吞吐量的数据清洗能力。正如林达华所述:
一个性能强大的大模型,训练数据不仅规模要大,质量更要高;而且大模型的价值观和安全性也是依赖于此。
数据清洗的过程,犹如调制配方的实验,需要不断试错、不断重复,甚至从头再来。这个过程是每家训练大模型的公司都无法避免的过程,没有捷径可走。
OpenAI在无数场合都介绍过GPT4训练的经验,但从未公开过数据清洗的经验,这可谓是训练大模型的顶级机密。
商汤在数据清洗的过程中投入了上千块GPU的算力,并建立起大量系统化、工程化的途径来进行数据配方的试错,可以迅速发现大数据库中的有效数据再到小参数模型上进行验证。
从4月到8月,商汤花费了非常大的力气做数据清洗,过程中专注于补充和构建有多步骤的推理语料,形成一套非常高效的闭环进行模型的训练,使得模型的推理能力得到了大幅提升。
目前商汤每月能够产出约2万亿token的高质量数据,预计年底高质量数据储备将突破10万亿token,足以支持更加强大的基模型的训练。
通过数据清洗,商汤在中文语料的储备方面达到了一个相当高的水平,是业内领先的能力,因此在知识理解和推理方面都有非常优异的表现。
而如此迅猛的迭代速度和高质量数据清洗,定然是离不开大算力的加持,也就是商汤技术版图中另一个关键——SenseCore大装置。
早在2022年1月,商汤便交付使用了总投资高达56亿元的人工智能计算中心(AIDC),而且是“出道”即成为亚洲最大的AI超算中心之一。
一年前它的算力就已经高达了2500 Petaflops,可以轻松应对万亿参数的大模型;而时隔仅1年,这个数值便翻了一倍多,达到了6000 Petaflops。
有强大的算力,有高质量数据,加之商汤对于“玩转”大模型多年来沉淀的know-how,也就不难理解为何能拥有如此迅猛的迭代速度了。
二看落地应用
高质量的落地速度,是另一个关键点。
这也是目前趋于冷静的AIGC市场之下,各个大模型玩家所面对的骨感且实实在在的问题。
商汤可以说在这一点上提交了一份生成式AI相关收入暴涨670.4%的高分作业。
这个数据的亮相其实也并不意外,因为商汤在此前的活动中也早已对此有所披露。
例如结合商量2.0和秒画3.0的能力,商汤在移动端给客户带来了多种交互方面的“解法”。
针对信息获取的问答交互、生活场景的知识交互、语言和图像生成的内容交互等等,正因为商汤的大模型拥有轻量化版本,所以可以轻松在移动端上部署。
商汤还基于InternLM的轻量级模型,结合自研推理加速算法,与头部手机芯片厂商建立研发合作,成功实现了大语言模型的手机端实时计算能力。
……
而这仅是商汤将大模型落地应用的一隅,从众多案例来看,也正应了商汤联合创始人、执行董事徐冰的观察:
市场对于AIGC、大模型技术的需求是非常强烈的;谁能够在市场上迅速地推出对标业界领先能力的基模型,谁就能跑得更快一些。
我们在基础设施中投入如此大的力量,也是要解决市场对于大模型落地固有的碎片化的问题;让基模型的泛化能力强大起来,即便面对各种碎片化的需求都可以做到及时响应。
因此,商汤的落地速度,从某种层面上也可以视为“强技术”与“强需求”之间的双向奔赴了。
三看战略布局
自从大模型热潮以来,一个经久不断的话题便是“开源”和“闭源”。
其各自的优势也是越发的明显:
• 开源大模型:可以促进技术的共享和交流,加速人工智能的发展;避免闭源模式下的技术独霸和垄断,促进市场的公平竞争。• 闭源大模型:可以保护知识产权,为公司带来经济效益;提高公司的核心竞争力,为公司在市场中占据优势地位。
但二者之争也是进展地如火如荼,国外大模型巨头亦是如此,最为典型的便是Meta正在以开源LLaMa系列来挑战 OpenAI的地位。
在这个关键问题上,商汤的战略布局与它们截然相反——不做选择题,都要。
例如在开源方面,商汤与多家科研机构合作支持和推进AI开源平台建设,InternLM-7B的部分训练数据、训练代码及基模型权重已经向学术界及工业界免费开源,并支持免费商用。
而在闭源方面,商汤目标打造具有竞争力且好用的“基座模型”,如同英伟达卖“硬的铲子”,商汤希望通过“软的铲子”,支持上万个潜在行业大模型的需求,真正解决行业痛点。
正如林达华表示:
二者是相辅相成、互补的,它们对产业来说都有着非常重要的价值。
开源能够让更多人接触到大模型这个技术本身。在这个过程中,它可以碰撞出更多火花,让大模型更好的应用起来,推动整个大模型生态的建设。我想对全行业来说,开源是一个非常正面的贡献。
而闭源对于企业在市场中形成技术和竞争力的壁垒起到至关重要的作用;未来若是能够将二者做很好的结合,会更好地推动大模型市场的发展。
与此同时,商汤还非常看重基模型的能力,因为在它看来,只有把基模型做得足够强,才能应对碎片化极高的市场需求。
这也应了徐冰的想法:
大语言模型也好,文生图模型、多模态模型等等也罢,它们的发展今年都遵循了同样的规律,就是先前碎片化,定制多;但现在转为追求强大的基模型能力,追求强大的泛化能力,能够直接接入到客户场景里面,做好适配能够很好地去迅速地形成商业上的价值变现闭环。
我们也粗略地估计了一下,全中国的行业大模型可能潜在的规模突破一万个,因为这里面的场景非常多,玩家也非常多。这些行业的大模型是需要基于一个强大的基模型能力去生产的,它很难凭空只针对某个领域的数据就把行业大模型做好,因为它缺少了基模型所能带来的一系列的涌现能力。
……
总而言之,有实力、有落地、有布局,商汤能否解锁“成为中国第一个达到GPT-4水平的大模型”,是值得期待一波了。
商汤刷新了自己最后,我们再回到商汤本身。
若是要用一句话来评价商汤这次交出的“成绩单”,或许就是:
商汤自己刷新了自己。
曾几何时,大众和市场对于商汤的印象可能依旧是停留在“AI视觉技术公司”这个标签上。
但也正是这样的一个起点,如果站在当下这个时间节点回首,或许正应了现在非常流行那句话:命运的齿轮开始转动了。
现在大模型所需要的多模态技术,不论是自然语言处理,还是图像处理等,商汤已经早早涉足且深耕;现在大算力上的“一票难求”,商汤也是早早布局打造AIDC,为日后的大装置做好了充足的铺垫。
而且商汤更是在ChatGPT引爆AIGC大热潮之前,便已经在大模型领域着手研发。
并且在2019年,商汤便使用上千张GPU进行单任务训练,推出了10亿参数规模的视觉模型,并实现了当时业界最好的算法效果。
后来在2021年到2022年期间,商汤训练并开源了30亿参数的多模态大模型书生。
而当热潮退去,市场迎来落地大考之际,商汤又能将长期准备好的一系列的成果通过完备生产要素和生产资料、灵活的“玩法”和布局来应对。
因此,现在的商汤更像是一个新型技术基建平台,时刻在为即将到来且充满变数的未来在做着准备。
总而言之,商汤,是时候需要被重估了。
One More Thing好消息!商汤大模型应用“商量SenseChat”即日起全面向广大用户开放服务了!
可戳下方链接了解一下:https://chat.sensetime.com
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
相关文章
猜你喜欢