最近ChatGPT这个概念在国内爆火了一把,人们了解到了后有很多不同的反应,有焦虑的,有担心的,有恐惧的,有兴奋的。。。
然而这实际上只是个噱头而已,不知道其中的技术原理,自然很懵,但是如果搞明白其中的细节玩法,就知道这个技术的局限在哪里了。
就知道哪些功能对于ChatGPT来说实现很简单,哪些功能对其来说看似简单直接实现很难?
接下来我们进入主题:讲解5个关于GPT的问题。
先做个提示,重点强调一下:
所有教你用ChatGPT赚钱的,全都是割韭菜的!
ChatGPT(GPT4)只是一个工具,最多教教工具的使用。
这个都不用具体细看,只要想一下经济学 稀缺和价值的关系逻辑 就能明白了,太多复杂的说法都是花招。
接下来我们着重的讲一下如下5个问题:
1.简单讲一下ChatGPT,GPT4都是什么?
2.ChatGPT的出现,对大众影响大吗?
3. 为什么 大模型创业(GPT创业) 是个坑?
4.数字孪生人真的很神奇吗?
5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?
1.简单讲一下ChatGPT,GPT4都是什么?
ChatGPT就是最近美国火起来的一个文字软件交互程序而已,能根据文本输入做出很多智能的反应,比如:1.按指定文字提示 写文章。
2.按指定文字提示 回答问题。
3.按指定文字提示 写程序等。。。
都是一些智能交互,重点是相比之前的文字交互软件智能了太多。
GPT4 (大模型4代) 也仅仅是一个基础程序而已,只不过是用很多数据和计算力训练出来的基础程序,ChatGPT基于GPT4之上开发而成。
2.ChatGPT的出现,对大众影响大吗?
ChatGPT(GPT4) 对 一般人来说 没有任何影响,大众不需要做任何事,
需要做的只是等着GPT技术成熟 彻底工具化后学一学使用工具即可,
一般不用想着什么创业机会啥的,这方面创业都是坑,下面会详细讲。
3. 为什么 大模型创业(GPT创业) 是个坑?
自从最近OpenAI公司发布的ChatGPT概念在中国火了后,准备开始做国内大模型(GPT创业)的公司就如雨后春笋般的出现。
然而,你要明白了其中的技术原理 和 限制条件后,就会知道这是一个大坑!
那你可能会想了,怎么可能,那么多人搞这个创业,甚至百度,阿里都在搞,
他们傻吗?
首先说明一下,大公司搞这个起初就不是冲着盈利和赚钱的目的去的。
最近搞这类创业的有两类:
第1种:这是蹭热度,或者创业多久后盈利不是他们考虑的,
只要能一直融到资,哪怕连续亏损10年都没问题,
创始人,创始团队在某种程度上 是不依靠于大模型创业是否能盈利的(某种程度上可以这么理解)。
至于 投资人 则也是知道这中短期很难实现盈亏平衡,只是报个希望赌一把而已。
第2种:公司规模太大,不能不做, 钱太多,看着你的人也太多了,所以就把其GPT模型作为其一个基础支撑组件来用的,根本没想着赚钱去的,就是为了自己更好的使用一下,完善一下自己的生态。
好了,既然讲到这里,我们就得详细讲一下 大模型创业为什么很难盈利,为什么是个坑?
思考判断不能没有逻辑,一切的判断都要基于现实的技术和相关条件要素,等我们讲完大模型具体内部重要的要素有哪些,就能搞明白了。
我们先来讲一下 大模型 创业到底是干啥?
GPT4 就是 美国OpenAI 搞的大模型4代,GPT4本质上是一个软件程序,是个程序,只不过这个程序我们叫其为 模型,把GPT4封装起来做个软件应用产品,就是ChatGPT, 这个程序的功能就是 能够通过 输入文字 给出对应的响应结果。
那么国内创业搞的是什么呢?
主要搞的产品 就是 国内某公司自己开发的大模型(本质是个软件程序),开发完后也能通字符输入给出对应的结果响应。
那不同公司 开发的 大模型 有什么区别吗?和美国的GPT4又有什么区别吗?
为什么那么多种大模型?百度搞个,阿里也搞个?
这就得看 想要开发好 大模型,让大模型给出的反应结果最准确 需要什么要素?
公式如下:
数据 深度学习算法 算力 = 大模型
1.数据(训练原材料)
2.深度学习算法(计算算法规则)
3.算力(硬件计算力)
4.大模型(预测模型,给出输入(比如文字),响应结果)
要想做好大模型, 就得满足好这三个要素条件,这三个要素条件越好,大模型训练出来效果越好。
那我们来逐个分析一下:
1.先讲数据:
数据的质量高低 直接 影响 大模型预测的效果好坏!
为什么?那数据质量高又是指的什么?
因为大模型给出反应结果的原理,就是通过字符匹配和预测,所以如果你给的数据内容本身就是错的,那么他是识别不出来其是错误的。
举例(只是为了讲清楚其 数据是如何影响准确率的):
你提供的一系列数据中有: 1 1 =3
如果所有和 1 1 = 3 的内容相似的都是这样,那么计算机模型是识别不来的,他会把3 当成咱们理解的2,然后 你给其输入提问一个: 3 5 =?
他回答很可能就是 3 5 = 7 。(不接入计算器API的情况下,这例子只是为了说明信息错配的原理)
所以数据是否最准确,其中的知识是否最有用,有价值 直接影响了 模型预测的 效果好坏。
所以如何获得高质量,高专业度的数据 就是一大难题。
不同公司的训练数据不一样,自然模型预测的效果也不一样。
而很多数据在咱们国家 的获取规则更难,一般企业想要获取足够好的数据内容难度相当大。
这其中也涉及很多数据隐私的问题。
所以,做大模型,数据方面,也只有有官方支持的国企才能做的最好。
2.深度学习算法
关于深度学习算法,是一系列特定算法的一个分类总称,其下具体包含很多种不同的深度学习算法。
每一种算法 都是基于 数学原理 和 程序的一些逻辑修改 弄出来的。
这个算法基本是通用的,只不过有实力的公司可能会专门设立小组 定制化 修改其公司使用的深度学习算法。
每家做大模型创业的公司基于深度学习算法的算法定制方案也不同,这看各自公司的技术实力了。
3.计算力
最坑的就是这个计算力,因为其训练过程有点类似暴力破解的方式,所以需要很多算力,这个算力造成的硬件成本至少要数亿美金 ,算力少了或者训练的时间不够的话模型效果会很烂,基本等于白玩。
那这里就有个盈利悖论了,我们如何赚钱呢,基本有几种模式:
1.类SaaS(软件即服务),靠提供功能来收费,别人的公司调用我这模型1次,就需要交固定的钱。
而这个在国内想真正玩起来很难很难,你看一下国内搞数据服务或者其它服务的公司 情况就知道了。
2.封装GPT(大模型),打造一个产品来赚钱, 这个就又有悖论了:
如果你的产品好用能赚钱,那么靠的是什么核心竞争力,GPT的能力? 你能把这个GPT搞到这个功能强度,别人也能啊;靠产品模式吗? 你的产品模式好,GPT比别人的能力差,别人照样转眼把你模式一抄就全面超越你,所以这个盈利是存在悖论,至少中短期很难实现正负盈亏平衡。
还有一个就是GPT自身属性的原因:GPT自身的属性导致,什么属性?
工具属性。
用 工具属性 的产品 必然是赚钱困难的。
这几乎没有例外。
反着来看投入产出比,用了这么多算力资源:
从能量资源的角度来看 这个中短期就很难盈利。
你花了10亿美金 研发了一个 自动削苹果机,用这个苹果机削一次要收费1000元,
1000元够我买一车苹果了,那我为什么不自己削苹果呢?
而且GPT领域的竞争最终必然是充分竞争市场,你死我活的,最后只能留下一两家,
4.数字孪生人真的很神奇吗?
数字孪生人,这个说的太高大上了,我来给你讲清楚点把,实际上是个很low的东西,
和永生,脑机接口等那些高大上的概念完全不沾边。
数字卵生人本质上就是一个 : 能够聊天的软件程序 ,只不过这个聊天程序说话的风格,讲出内容以及涉及的内容范围上限 都 和现在的你一样, 就是拿你的一些特性 数据化然后 模仿出的一个软件程序。
这存在很多问题:
1. 这个软件程序不能真正 实现和你一模一样的性格,因为数据的提供是有限的,
而有些你内在的思维想法 完全不在提供的数据中,很多根本无法用数据描述,或
者说很多内在知识和反应你自己都不知道。
2.这个程序只是模仿现在的你, 准确说是模仿上限范围 就是由你提供的数据上限所
决定的,如果现在搞一个你的孪生聊天程序软件, 等过半年再来看,就很有可能和
你的性格和想法大相径庭了。
3.我彻底用一个案例来 讲一下 这个 和真人学习的区别在哪里把?为什么这个比人耗资源要多很多很多。
其根本区别在于:
人是通过五感的信息输入 和行为反馈来学习的,
而计算机或者说GPT本质上 是 通过 字符的信息输入来学习的。
五感信息 和 字符 信息输入 有什么差别呢?
差别就是字符信息输入 缺少很多隐藏的内在关联逻辑,这些内在关联关系让程序识别出来非常难(或者说不是难,而是和人比耗的资源差距太大了)。
举例:
我们用一个教小孩 识物 的例子来讲:
1.比如小A的妈妈 指着鱼缸里的鱼 对小A讲:鱼缸里这是一条金鱼。
用字符文字来简单描述 : 鱼缸中有一条金鱼等等。。。。
五感信息 和字符信息之间差了什么 隐藏的内在逻辑呢?
小A脑中的学习思考历程:
1).眼睛 看见 鱼缸中的金鱼:
内在隐藏逻辑关联:鱼是在水中生存的(自然看见导致的归纳学习法)
水知识点 ------连接---------鱼
2).这鱼是金色的:
内在隐藏逻辑关联:金鱼应该有金色的。
金鱼---连接---- 金色
3).因为鱼在鱼缸中,所以鱼缸比鱼要大
内在隐藏逻辑关联:大小识别 鱼缸比这条鱼大。。。
等等。。。
上面讲的很多内在隐藏逻辑 对人来说是很容易学会的,
因为人是通过 五感 和行为反馈来学习的,
做个假设:
(只是为了理解而做的假设,现实情况是人完全不理解脑神经运转的真正原理,谁研究
懂就能拿诺贝尔奖了)。
假设: 学习的过程就是 存储着 某知识的神经元(神经细胞) 与相关的神经元 同时 被生物电激活,进而产生化学连接的过程。
那么五感连接的神经元同时激活的时候,他们之间的连接链路是明确的,有限的。
而 五感和行为反馈都和神经元 有直接连接通道:
那么只需要几条很少的神经连接都能把这些东西连接起来,因为五感是同时激发产生生物电的。
而计算机是怎么做的呢?
计算机当然也能识别这其中的逻辑,但是使用的学习方法耗能和人学习比简直是天翻地覆,
计算机最底层只能通过 分析 字符(输入图片音乐最终都会转成二进制数字) 来学习理解:
看这句话:鱼缸中有一条金鱼。。。。
如果想只 通过这一句话 分析出上面人所能理解的,是绝对不可能的。
计算机是怎么学习的呢? 最简单的就是字符匹配:
举例:你要输入1万句 包含鱼的句子, 一万句水缸中的水、水缸大小,鱼的总类相关的句子。。。。
字符信息: 然后计算机 根据这些句子数据 按照深度学习算法 训练出一个 匹配规则模型,
直到匹配的结果能实现和上面人一样的连接效果才行,
但是在原理层面来看, 计算机 是不懂 其真正内涵的, 只能做 文字预测匹配,只不过
这个预测匹配能实现和真人效果一模一样,这就是GPT4诞生的原因。
输入A---------->经过模型计算 ---------->输出B
你好吗?---------->GPT 通过模型的字符匹配算出---------->我很好(正确的回答)
你好吗-?--------->五感 人的意识 思考---------->我很好
这就相当于可以实现相同的功能效果 ,但是实现的方法完全是不同的:
举个例子:
要杀死一只羊,有两种方法:
第一种: 毒药毒死
第二种: 用水淹死
实现的结果都能弄死这只羊, 但是毒药的成本很低,而淹死需要一池子水,
水成本也高,那么两者都能弄死这只羊,但是使用的方法不一样,成本也不一样。
人们文字语言交流 本质上 就是一个 字符对应匹配的过程,我说什么字符,你按照
语法和语义回应对应的字符。
计算机也能实现对应的功能, 但是他用的是通过暴力破解 来打造一个 匹配规则
函数, 对话的结果相同,只不过你是根据语义语法的规则来回答的,计算机是根据字符匹配的概率规则来回答。
实现回答的结果一样,但这过程的意义完全不同,消耗的资源也完全不同。
5.人工智能或者GPT会产生情感吗?会造成破坏吗?会危害人类吗?
人工智能有可能产生情感吗,有可能主动对人类进行破坏吗?
人工智能本质上是个软件程序,不能产生情感,但是可以表现出和有情感的人一模一样的效果和反应,让人分辨不出来真假。
所以说理论上:形式上可以和真人毫无差别。
但是就像刚才举的例子,一个真人和 一个人工智能实现的应对反应能一模一样,但是实现的过程方法不一样。
人是通过理性情感做出的反应, 计算机本质上是通过字符匹配进行的反应,
两者在结果形式上一模一样, 但是计算机还是没有情感,本质是不同的。
按上面的例子来说同样类别的话就是: 我能用毒药毒死这只羊,也能用水淹死这只羊,
因为都能弄死这只羊,所以水(纯水)也能毒死这只羊,毒也能淹死这只羊。。。
说计算机有情感 不就相当于 强行把 造成相同结果的两个过程 划上等号吗?
计算机有可能对人类造成破坏,不过原因是计算机程序的变化导致的,是一种事实上客观物理变化导致的,概率性的。
因为某种原因产生了 错误的程序,这错误程序对人有破坏,所以有可能对人造成伤害,绝对不是因为计算机有了情感然后自己想破坏人类。
这就相当于你把一个鸡蛋摔到地上, 鸡蛋碎了, 碎的原因 是 物质力物理规则的原因,而你要强说,因为这鸡蛋有情感, 不想困在我手里,想要自由,即使死掉也在所不惜,所以自己摔倒地上碎了。。。这不是强行给其加戏吗?
计算机程序只是个程序,执行固定规则的程序,永远不可能有生命。
甚至说绝点: 只要宇宙的物理定律,物理规则不变, 计算机就永远不会有生命。
这不是技术能改变的,这是物理规则决定的!
如果宇宙物理规则经常变化,那么世界就根本不稳定了,世界也就不会存在了。
本文先讲到此。。。
相关文章
猜你喜欢