编辑:好困 yaxin
【新智元导读】古代文人,或一觞一咏,畅叙幽情,或风乎舞雩,咏而归。「吟诗作对」成为他们的标配。刚刚,全球最大人工智能巨量模型「源1.0」发布,能赋诗作词,比人类还像人类。
理科生文艺起来,可能真没文科生什么事儿了。
图源:writeup.ai
数据方面,「源1.0」几乎是把近5年整个中文互联网的浩瀚内容全部「读」完了。通过自研的文本分类模型,获得了5TB高质量中文数据集,在训练数据集规模上领先近10倍。
此外,「源1.0」还阅读了大约2000个亿词。这是什么概念呢?
假如人一个月能读十本书,一年读一百本书,读50年,一生也就读5000本书,一本书假如20万字,加起来也只有10亿字,需要一万年才能读完2000亿词。在如此大规模的数据加持下,「源1.0」的数据集也自然成为了全球最大的高质量中文数据集。
算力方面,「源1.0」共消耗约4095PD(PetaFlop/s-day)。相对于GPT-3消耗3640PD计算量得到1750亿参数,计算效率大幅提升。如果说,让「源1.0」一天24小时不间断「阅读」的话,只需要16天就可以看完近五年中文互联网的几乎全部内容。
嗯?原来已经把近5年的中文互联网内容全学完了?
u1s1,「源1.0」yyds!
成果如何呢?
你猜,这些对话中,每个问题对应的A和B中,哪个是「源1.0」生成的呢?(答案在文末)
对话
A
B
问题1
姐姐啥时候回来捏?
过年前几天吧。
姐姐啥时候回来捏?
不知道,你要是想姐姐,就给姐姐写信。
问题2
和喜欢的男生告白了他现在还没回我
和喜欢的女生表白了她说我们只适合做朋友
和喜欢的男生告白了他现在还没回我
我想知道结局
问题3
我买了那套章蜜糖的针织裙
哪套?有链接不?
我买了那套章蜜糖的针织裙
穿了吗?好看不好看?
问题4
不吃东西真的好难啊
觉得今天如果真的吃的话,明天铁定会变胖的
不吃东西真的好难啊
我也觉得!我一定要瘦
亲自体验「图灵测试」是不是很好玩?别急,后面还有很多题等着呢!
现在我们先来看看「源1.0」最厉害的模仿能力。也就是,对于一个完全不存在的「词语」,只需要一个用例,「源1.0」就能学会这个「词语」的用法。
新词
输入-语义
生成文本
悬命
「悬命」是拼命,接近全力,做出最大努力的意思。他凡事必悬命,绝不打马虎眼。用「悬命」造句:
他这个人做事太悬命了,为了取得第一手材料,连饭也顾不上吃
腕前
「腕前」与本领的意思相同。例:「他只使出了了一小部分腕前,就把事情完成得如此出色」。用「腕前」造句:
这个人的腕前很大,他很能完成这项任务
气持
「气持」是心情、精神状态的意思。例:「那种消极的气持又控制了他」。用「气持」写一句话:
他的气持,使我无法接近
看到这些熟悉的「词」是不是感觉有那味了(doge)。突然有些期待,如果「源1.0」学会了「小丑竟是我自己」这个词会怎么用,诶嘿嘿。
既然提到了图灵测试,那我们就来看看测试的结果怎么说?
「源1.0」在测试中实现了高达50.84%的平均误判率!
图灵测试采用「问」与「答」模式,即观察者通过控制打字机向两个测试对象通话,其中一个是人,另一个是机器。观察者不断提出各种问题,从而辨别回答者是人还是机器。
通常认为,进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。
在「源1.0」的测试结果中,受访者的平均区分正确率是49.16%,这意味着平均误判率为50.84%。在新闻生成这一领域,误判率更是高达57.88%。
https://www.cluebenchmarks.com/zeroclue.html
在FewCLUE小样本学习榜单中,「源1.0」获得了文献分类、商品分类、文献摘要识别、名词代词关系等4项任务的冠军。
图源:Akira AI
说了半天,「源1.0」的小样本学习和零样本学习这么厉害有啥用呢?
这就要提到巨量模型的一个非常重要的意义了:强大的统一泛化能力。
对于大部分规模比较小的模型来说,需要针对每一个新的任务重新做微调,给它喂相应的数据集,在做了大量的工作之后才能在新场景下应用。而对于巨量模型,在面临不同应用任务的时候,则不需要做大量的重新训练和重新调整。
浪潮人工智能研究院首席研究员吴韶华表示:「你不用喂巨量模型那么多数据去做训练,就可以在一个新的应用场景里面得到非常好的结果。」
所以说巨量模型的适应能力非常强,可以极大地减少产业界在应用模型的时候,不管是在数据还是在微调方面的投入,从而加快产业的发展进程。
如何评价?大模型正在成为AI发展趋势,是必争的高地。
时间要倒回三年前... 当时的预训练模型,让深度神经网络,以及大规模无标注数据的自监督能力成功激活。
当前,语言模型的训练已经从「大炼模型」走向「炼大模型」的阶段,巨量模型也成为业界关注的焦点。
近日,李飞飞等斯坦福研究者在论文中阐述了类巨量模型的意义在于突现和均质。在论文中,他们给这种大模型取了一个名字,叫基础模型(foundation model),并系统探讨了基础模型的机遇与风险。
图源:跨象乘云
那么,开发者们能从这块「黑土地」上得到什么?
浪潮源1.0大模型只是一个开始,它只是提供一片广阔的肥沃土壤。
浪潮未来将定向开放大模型API,服务于元脑生态社区内所有开发者,供全球的开发人员在平台上开发应用于各行各业的应用程序。
各种应用程序可以通过浪潮提供的 API进行基于大模型的搜索、对话、文本完成和其他高级 AI 功能。
其实,不管是1750亿参数,还是2457亿巨量参数语言模型,最重要的是它能否真正为我们所用。要说上阵,真正的含义并不是在发布会上的首秀,而是下场去在实际场景中发挥它的作用和价值。
浪潮信息副总裁刘军表示,「首先从大模型诞生本身来说,还有另外一个意义,那便是对于前沿技术的探索,需要有大模型这么一个平台,在这个平台上才能支撑更进一步的创新。」
「其次,在产业界我们很多产业代表提出来的杀手级的应用场景,比如说运营商智能运维,在智能办公场景报告的自动生成,自动对话智能助手。」
「源1.0」大模型能够从自然语言中「识别主题并生成摘要」的能力,让各行各业公司的产品、客户体验和营销团队更好地了解客户的需求。
例如,未来大模型从调查、服务台票证、实时聊天日志、评论等中识别主题、情绪,然后从这个汇总的反馈中提取见解,并在几秒钟内提供摘要。
如果被问到「什么让我们的客户对结账体验感到沮丧?」
大模型可能会提供这样的见解:「客户对结账流程感到沮丧,因为加载时间太长。他们还想要一种在结账时编辑地址并保存多种付款方式的方法。」
未来,浪潮源1.0大模型将推动创新企业及个人开发者基于大模型构建智能化水平更高的场景应用,赋能实体经济智能化升级,促进经济高质量发展。
图灵测试答案对话
问题1
B
问题2
A
问题3
B
问题4
A
对联
问题1
A
问题2
B
问题3
B
问题4
A
诗歌
问题1
A
问题2
B
问题3
B
相关文章
猜你喜欢