这是一款对中文支持良好的开源ChatGPT,可以让ChatGPT完全无限制、免费的运行在你电脑,作为开源项目没有提供一键安装包,需要自己动手,感兴趣的可以继续往下看。
对于国内大家都期待的中文版ChatGPT,目前也就文心一言可用,还需要排队。想尝鲜都要等等,就在最近这几天,ChatGPT的开源项目蓬勃发展,有众多的迷你GPT开源模型出来,可以运行在自己本地电脑,基本能媲美到ChatGPT3的程度,算是还是不错的!
但很快中文社区的玩家们,发现都是需要输入英文对话,这个对于普及给中文社区不够友好。因此大家各路奇招,竞相训练具有中文支持度高的迷你ChatGPT模型。就在我前段时间,还在网上看到有个国内开发者,通过各种手段将Stanford Alpaca训练的数据集,通过调用三方翻译api翻译成中文,然后再用中文训练,无奈他网上发表心声一方面翻译不稳定,一方面训练的机器显卡较低,经常出现内存不够。
这才没几天,开源社区已经诞生了好几个,支持中文的ChatGPT模型了。
想彻底解决ChatGPT无法访问的困难,告别文心一言还在排队中的等待,动手能力强的,搓搓你们的小手,我们一起来看看,如何让这个小东西跑在自己的电脑上面。
项目介绍:BELLE: (全称Bloom-Enhanced Large Language model Engine) 官方介绍:这是开源中文对话大模型-70亿参数。项目地址:https://github.com/LianjiaTech/BELLE
BELLE项目基于 Stanford Alpaca ,Stanford Alpaca 的目标是构建和开源一个基于LLaMA的模型。 Stanford Alpaca 的种子任务都是英语,收集的数据也都是英文,此训练出来的模型未对中文优化。因此BELLE项目正是为了拓展GPT领域对于中文的更好支持,以及开源社区的发展,对模型做了中文优化。
项目主要包含:
175个中文种子任务生成数据的代码0.5M生成的数据基于BLOOMZ-7B1-mt优化后的模型目前进展:根据社区的反馈,已经在准备更加轻量级的LoRA模型,届时将极大的降低对硬件的要求!
图片来源开源社区项目主页
图片来源开源社区项目主页
总结:看到这里是不是想尝试一把,动手能力强的或者有条件的可以自己尝试一把!
特别提醒:该项目目标是仅限研究或者学习使用,不得用于商业用途!
郑重声明:文章未经许可不得随意转载,如需转载请与我联系!文章观点不代表任何团体及组织,实属个人行为,如有不妥之处忘告知,谢谢!其它个人如果因本文章造成违法犯罪等不正当后果者,本人概不负责,请慎重阅读!谢谢!相关文章
猜你喜欢