> 自媒体 > AI人工智能 > 一款中文开源ChatGPT来袭,让ChatGPT无限制、免费的运行在你电脑
一款中文开源ChatGPT来袭,让ChatGPT无限制、免费的运行在你电脑
来源:乙梦喂马
2023-09-02
209
管理
背景

这是一款对中文支持良好的开源ChatGPT,可以让ChatGPT完全无限制、免费的运行在你电脑,作为开源项目没有提供一键安装包,需要自己动手,感兴趣的可以继续往下看。

对于国内大家都期待的中文版ChatGPT,目前也就文心一言可用,还需要排队。想尝鲜都要等等,就在最近这几天,ChatGPT的开源项目蓬勃发展,有众多的迷你GPT开源模型出来,可以运行在自己本地电脑,基本能媲美到ChatGPT3的程度,算是还是不错的!

但很快中文社区的玩家们,发现都是需要输入英文对话,这个对于普及给中文社区不够友好。因此大家各路奇招,竞相训练具有中文支持度高的迷你ChatGPT模型。就在我前段时间,还在网上看到有个国内开发者,通过各种手段将Stanford Alpaca训练的数据集,通过调用三方翻译api翻译成中文,然后再用中文训练,无奈他网上发表心声一方面翻译不稳定,一方面训练的机器显卡较低,经常出现内存不够。

这才没几天,开源社区已经诞生了好几个,支持中文的ChatGPT模型了。

想彻底解决ChatGPT无法访问的困难,告别文心一言还在排队中的等待,动手能力强的,搓搓你们的小手,我们一起来看看,如何让这个小东西跑在自己的电脑上面。

项目介绍:

BELLE: (全称Bloom-Enhanced Large Language model Engine) 官方介绍:这是开源中文对话大模型-70亿参数。项目地址:https://github.com/LianjiaTech/BELLE

BELLE项目基于 Stanford Alpaca ,Stanford Alpaca 的目标是构建和开源一个基于LLaMA的模型。 Stanford Alpaca 的种子任务都是英语,收集的数据也都是英文,此训练出来的模型未对中文优化。因此BELLE项目正是为了拓展GPT领域对于中文的更好支持,以及开源社区的发展,对模型做了中文优化。

项目主要包含:

175个中文种子任务生成数据的代码0.5M生成的数据基于BLOOMZ-7B1-mt优化后的模型

目前进展:根据社区的反馈,已经在准备更加轻量级的LoRA模型,届时将极大的降低对硬件的要求!

图片来源开源社区项目主页

图片来源开源社区项目主页

总结:

看到这里是不是想尝试一把,动手能力强的或者有条件的可以自己尝试一把!

特别提醒:该项目目标是仅限研究或者学习使用,不得用于商业用途!

参考来源:https://github.com/LianjiaTech/BELLE

郑重声明:文章未经许可不得随意转载,如需转载请与我联系!文章观点不代表任何团体及组织,实属个人行为,如有不妥之处忘告知,谢谢!其它个人如果因本文章造成违法犯罪等不正当后果者,本人概不负责,请慎重阅读!谢谢!
0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
轻随风之舞(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索