> 自媒体 > AI人工智能 > GPT-4来了,但不要担心:你还不会失业
GPT-4来了,但不要担心:你还不会失业
来源:时代周报
2023-05-29
197
管理

本文来源:时代周报 作者:刘沐轩

没有用过ChatGPT的人可能要抓紧时间了,它的进化速度远远超乎人们的想象。

抛开其复杂的内核,许多人都把ChatGPT当成一个有问必答的AI系统,有时让人惊叹于它渊博的知识、清晰的语言逻辑,有时也不禁使人调侃其“不懂装懂”地给出离谱的答案。

这款由OpenAI公司开发的AI系统——ChatGPT,已经有超过1亿的日活用户。

但这显然只是这个AI系统的一个起步。3月15日,OpenAI发布了全新升级的版本,名为GPT-4。相比于只能接收文字提问的老版本,最新的GPT-4可以识别图片的意思,10秒钟做出一个简单的网站,甚至能回答出“这个表情包为什么好笑”的刁钻问题。

由AI找到的抗生素Hailicin。(图源:社交媒体)

但整个事件给人带来的震撼不是AI找得有多快多准,而是AI学生用科学家老师们至今都无法理解的解题方法,得出了Halicin这个正确结果。

这并非特例,早在AlphaGo大战世界围棋冠军李世石时,人们就发现AI经常会走出一些人类棋手匪夷所思的走法。

现在,许多行业的前沿从业者和研究者都在使用AI,但绝大多数人并不知道AI为何如此抉择。如果不及时反思或学习AI的方法论,这将是一件恐怖的事情。

不知道其方法论,那AI所做的一切真的正确吗?如果AI能够轻易完成科研成果、股票交易这些人类社会较高难度的任务,那么追求真理、牺牲精神、人心博弈等这些最具人性的行为又有何意义?

目前仅限于解决特定问题的AI也许还没什么威胁,但等到AI发展到了广泛处理各种事务,接管每个人的方方面面时,情况可能会变得让人哭笑不得。

AI会综合人们知道的、不知道的所有信息,为人们提供决策或建议,而人们可能根本没有核实其对错的能力。在一些小事上,会直接替人作出决策,就像AI现在推送个性化内容一样。

最终,对绝大多数人而言,AI什么都知道,什么都做得比人好。这样的良师益友,为何不尽情地依赖它?又或者会有人将其人格化,甚至将AI奉若“上帝”。

GPT-3和GPT-4的区别是,后者不仅可以接收文字信息,还可以学习多媒体素材。(图源:社交媒体)

目前,决定AI发展的三大因素是算力、算法和数据(教材),这些都需要人的参与。

算力是物质基础,而这就牵扯到芯片。

GPT对芯片的需求是极大的,且需求量呈指数级增长。GPT-4上一代的GPT-3.5,训练所需的芯片是英伟达的A100型号GPU(图形处理器,俗称显卡),一颗大概要8万元。

而完成整个训练过程,大概需要30000颗A100芯片,也就是2.4亿元。

要知道,训练当年战胜李世石的AlphaGO,也只用了176颗芯片。GPT-4的整个训练过程需要要多少芯片,现在还未可知。

与此同时,训练AI还特别耗电,ChatGPT据说训练一次,就要消耗90多万度电,相当于1200个中国人一年的生活用电量。目前,仅仅是维持日常运转,每天的电费大概就要5万美元。

此外,训练AI的素材目前仍然需要人工筛选。AI该学什么,判断是否正确,这些都需要一种名为数据标注师的工种。美国《时代周刊》在今年1月曾报道过,截止到2022年,全球已经有500万名数据标注师。其中,许多人来自非洲国家,比如肯尼亚。

在算法上,目前的AI比前代更像人,也因此取得了更迅猛的进展。

以往的设计,是“人教给AI语法和词汇,然后让AI讲话”。但语言模型本身就是模糊的,很多概念在人类社会中都没有所谓“正确”的定义。

比如,什么是猫?每个人都可以轻易地判断出猫的照片,但却没人能简单地总结出判断规则。有毛?尖耳朵?大眼睛?人类老师都不一定能解释清楚,如何教给AI学生?

科学家最终发现,直接把100万张猫的照片丢给AI,AI就学会了判断“什么是猫”。因此,现在的算法是把“日常对话”直接丢给AI,让AI自己感受出一种“语感”。

试想如何教会小孩子“什么是猫”。(图源:社交媒体)

有时,AI的办法让人琢磨不透,有时甚至能启发人。

当前一个亟待解决的问题是,如何保障AI训练数据的准确性?除了事实本身之外,编程语言都是经由英语输入,AI只能“看懂英文教材”。这就意味着,如果要训练ChatGPT回答中文问题,也无法保证不在翻译上出现纰漏。

但抛开这些研发者的苦恼,对个人而言,ChatGPT或许将成为最好的学习工具,颠覆每个人接受教育的方式。

有问必答的ChatGPT可以从头教你如何向它提问,这是一种对话式的学习。从孔子和苏格拉底的时代开始,这种形式似乎就是“学习”最本真的样子。而且在吸收了大量的知识后,ChatGPT甚至可以扮演孔子和苏格拉底,直接与人们对话。

ChatGPT也许不能完美扮演孔子,但起码是个精通孔子思想的学霸。(图源:网络截图)

加州大学河滨分校2023年刚刚发布了一项研究,他们把《意识的解释》的作者、美国认知科学家丹尼特的所有的书和文章都输入给ChatGPT。研究者们让ChatGPT扮演丹尼特,回答受试者的问题,并将丹尼特自己的回答也混入其中,让受试者判断。

结果,25个熟悉丹内特领域的哲学家平均正确率为51%,经常阅读丹内特哲学博客的粉丝得分也差不多。也就是说,ChatGPT扮演的丹尼特已经到了真假难辨的程度。

现在,想阅读一本书,ChatGPT不仅可以为人们推荐、做摘要,甚至能在一定程度上替代作者本人答疑解惑。

但作者本人并不会失去价值,他的新思想恰恰是ChatGPT学习的食粮,ChatGPT也将成为敦促他思考的动力。

就像机械普及后,人工服务的价值反而越来越高。AI普及后,人的价值或许也将愈发凸显。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
婆罗花开(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索