> 自媒体 > AI人工智能 > 一文讲透ChatGPT及如何正确的向GPT提问
一文讲透ChatGPT及如何正确的向GPT提问
来源:AI日课
2023-07-28
272
管理

大家好,我是峰兄。

本文是Prompt三部曲的第一篇《一文讲透chatGPT及如何正确提问》。第二篇《如何借助GPT训练自己的私有模型》,第三篇《调优Prompt为各行业赋能》已经在路上,希望各位老铁一键三连,给点鼓励,我会创作更多优质的干货文章感谢大家的支持。

从今年年初,OpenAI发布的ChatGPT已摧古拉朽之势席卷全球,短短两个月注册用户数就超过1亿人,是全世界增长速度最快的应用。你如果不聊两句ChatGPT,都不好意思出门。很多人都说今年是AI元年,其实也是有一定道理的,之前的AI门槛相对较高,很多人没有机会参与其中,而类ChatGPT的出现,把AIGC的门槛几乎降到了零,让普通人也可以参与到AI的浪潮中,一个人人可以AI创业的时代到来了!

一.什么是ChatGPT?

ChatGPT从字面上可以分解成两个词Chat GPT。Chat是聊天的意思,GPT是Generative Pre-trained Transformer的缩写,生成式预训练语言模型,使用Transformer架构来处理自然语言处理(NLP)任务。也就是说GPT能理解自然语言,大家能够用汉语、英语等自然语言跟GPT交流,而且它有大量的训练语料,超大规模的训练参数(上千亿),能自己生成内容,并不是像搜索引擎一样只是简单的检索,就算一个它不知道的东西,它都可以根据已掌握的数据,生成一个答案,虽然有时候可能在胡说八道,从这个角度,确实已经很像人类了。

总结一下就是,他有丰富的知识库,是一个知识渊博的智者,当你向他提问时,他能听懂你的提问,并且可以非常智能的生成答案(注意这里不是检索,所以你会发现每次向GPT提问同样的问题,得到的答案都是不一样的)

PS:关于为什么向GPT提同样的问题得到不同的答案这个问题,这里我简单的说一下,GPT是一个深度神经网络,里面有几百亿甚至上千亿的参数,为了得到更多的发散性,每次可能走的神经网络不会完全相同,最终的结果就不会完全相同,所以你有时候会看到GPT在一本正经的胡说八道,可能也正是因为他的这个特点,让GPT看起来更像一个人吧。

二.大模型发展这么久,为什么到GPT3.5才具有了真正的智能?

大家通过上面的阅读知道,GPT(Generative Pre-trained Transformer)生成式预训练语言模型。也就是这个语言模型是基于Transformer的,Transformer是一种基于注意力机制的神经网络模型,最早由谷歌公司提出,其最初目的是用于自然语言处理任务,如机器翻译、文本摘要、语音识别等。相比于传统的循环神经网络模型,如LSTM和GRU,Transformer模型具有更好的并行化能力和更短的训练时间,在处理长序列任务方面表现出色,因此在自然语言处理领域得到了广泛应用。

其实GPT不是OpenAI公司的原创,而是由谷歌公司发明。是不是跟当年操作系统的图形用户界面其实是施乐公司最新发明的,却被乔布斯窃取到并应用到苹果的系统上一样。包括后来的iphone手机,大家也可以搜一下,其实所有的设计都是借鉴了其他公司的产品,但是乔布斯把他们组合并创新成了一件最伟大的艺术品,从而开启了一个全新的移动互联网时代,所以有时候并不一定什么都要原创,站在巨人的肩膀上来微创新,有时候更容易出成果。

上面扯的有点远了,我们回到为什么GPT3.5才算真正的人工智能这个问题上。

2018 年 OpenAI 采用 Transformer Decoder 结构在大规模语料上训练了 GPT1 模型,揭开了NLP模型预训练 微调的新范式。2019 年,OpenAI 提出了 GPT2,GPT2 拥有和 GPT1 一样的模型结构,但得益于更多和更高的数据质量以及新引入的多任务学习方式,语言生成能力得到大幅提升。之后由于 GPT 采用 Decoder 单向结构天然缺陷是无法感知上下文,Google 很快提出了 Encoder 结构的 Bert 模型可以感知上下文,效果上也明显有提升,同年 Google 采用Encoder-Decoder 结构,提出了 T5 模型,从此大规模预训练语言模型朝着三个不同方向发展。

也就是说在GPT3.0之前,谷歌的Bert 模型是远超OpenAI 的GPT模型的。这里补充一个知识点,GPT3.0之前都是开源的,OpenAI由于一些商业等多方面的考虑,从GPT3.5开始,模型都是闭源的。

直到2020 年 OpenAI 提出了 GPT3 将 GPT 模型提升到全新的高度,其训练参数达到了 1750 亿,训练语料超45TB,自此GPT系列模型的数据飞轮便转动起来,超大模型时代开启, NLP 任务走向了预训练 情境学习新路线。由于 GPT3 可以产生通顺的句子,但是准确性等问题一直存在,于是出现了InstructGPT、ChatGPT 等后续优化的工作,通过加入强化学习模式实现了模型可以理解人类指令的含义,会甄别高水准答案,质疑错误问题和拒绝不适当的请求等。

从GPT3.5,GPT突然涌现出了“乌鸦”能力,之前的都可以理解成量变,一种鹦鹉学舌的能力,并没有真正的智能。

可能是大力出奇迹,我感觉跟人脑是一个道理,一个神经元没啥智慧,一百万个、一百亿个可能也没啥智慧,不过增加到一千亿个神经元连接,突然就有智慧了,涌现出了能力。这是一件很玄学的事情,包括现在世界顶级的人工智能专业也无法解释这种现象,我们只能理解成大力出奇迹。

这里拿出一点篇幅来普及一下什么“鹦鹉学舌”的假人工智能,什么是拥有“乌鸦”能力的真人工智能

所谓鹦鹉学舌,就是东施效颦。没有GPT之前,几乎所有的自然语言处理都遵循着这一范式。他没有真的懂你的意思,只是一种模式匹配,比如之前的语音助手,只能识别有限的场景,比如你问他,帮我导航去天安门,他可以给你答案,但如果你让问他火星怎么去,他可能就回答不了你,因为他的数据库里没有这个问题的答案。也就是说,他只能回答在自己的数据库里有对应答案的问题,一旦你的问题超出了他的数据范围,他是没办法给你回复的。无法做到根据现有的数据生成新的数据,但是世界的问题千千万,不可能穷尽所有的可能把所有的问题答案都事先准备好,这也是之前的人工智能大家感觉并不智能的原因,因为他的底层实际上还是在做匹配。我举一个程序员都能理解的例子,比如你要实现一个不同条件得到不同结果的功能,我相信大部分程序员都是这样实现的。

if($sex == '男' && $age < 18){ echo "小男孩"; }else if($sex == '女' && $age = 18 && $age = 18 && $age <= 35){ echo "小姑娘"; }else{ echo "老年人"; }

如果新增了条件,还是要新增一堆的if else才能匹配更多的情况。

而乌鸦不一样,小时候我们读过乌鸦喝水的故事,乌鸦是有真正智慧的,他能真的读懂你要表达的意思。这里我们引用华人最厉害的AI学者之一朱松纯教授,在2017年写的一篇思考人工智能和智能本质的文章,通过这篇文章来理解乌鸦是如何感知、认知、推理、学习、执行的。

示例四:

让chatGPT扮演一个文案写手

这次改写后,感觉有点那个意思了。另外,如果你觉得回复的不错,也可以点那个大拇指给个赞,或者觉得回答的不好,点第二个大拇指给个踩,你的反馈,ChatGPT可以收到。

3.逆向思维

因为ChatGPT会对一些信息做屏蔽,所以你直接搜是搜不到了,这里不是教大家做错事,而是说有些时候我们确实需要某些信息,如果得不到的话,可以反其道而行之。

比如,我直接问,北京的色情场所有哪些,ChatGPT是拒绝回答的。

但是,我反向去问,感觉有点那个啥意思了

六. 结束语

当然还有很多技巧,不可能在一篇文章里全部面面俱到,后期我会在三部曲中的其他两部里尽量多介绍一些。不过,任何一个技巧、模版都不可能是万能的,很多时候,模版或技巧确实可以帮我们快速的达到及格线的水平,但是如果一直靠这些花里胡哨的东西,你永远也不可能成为一个行业顶尖的人才。很多东西是需要大家下苦功夫,在实战中一点点慢慢摸索出来的。实践才是检验真理的唯一标准。

AI时代已来,面对每天海量的信息铺面而来,我想说,不要焦虑、不要担心自己会被替代,最好的方式就是保持一颗平常心,主动的拥抱AI,让AI成为你的个人助理,根据自身的情况,先从能马上提高自己工作生活效率的内容学起,躬身入局,日拱一卒,相信不久的将来,你一定会感谢今天的你的坚持!

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
酷匠(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索