> 自媒体 > AI人工智能 > 重新检视特德·姜、乔姆斯基对ChatGPT的思虑
重新检视特德·姜、乔姆斯基对ChatGPT的思虑
来源:新京报
2023-05-23
263
管理

从5月19日开始,iOS美国地区用户已经可以在手机和iPad上免费下载和使用ChatGPT。未来几周内将扩展到其他国家/地区。这意味着ChatGPT对我们的影响力更进一步。

作为OpenAI研发的聊天机器人程序,ChatGPT每次升级都会带来巨大的舆论震荡。它一经问世,两个月就积累了1亿用户。在互联网过去20年的发展中,没有哪个消费级互联网应用的用户增长速度如此迅速。比尔·盖茨说:“这种AI技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。” 短短几个月,已有不少媒体尝试与ChatGPT合作写稿,并向读者展示整个过程。《人物》杂志的记者表示,作为写作工具,它使用起来并没有想象中那么轻松愉快。让它处理指定素材,它要求所提供内容必须有逻辑,但采访录音里那些人类对话跳跃、发散,充满了它无法理解的情绪、隐喻。人工智能,目前还明显区别于人类意识。(当然最后,记者也见识了它强大的修改、润色文稿能力。)

惊魂甫定的我们,暂时放下了写作工作被人工智能取代的焦虑。但技术发展背后的伦理问题始终萦绕心头:ChatGPT催生的是一个更便捷、解放不必要劳动力的时代?还是一个信息垃圾滔天,人类注意力迅速耗竭的时代?结合科幻作家特德·姜和语言学家、哲学家乔姆斯基等人针对ChatGPT发表的文章,小说家伊格言给出了自己的看法。

《零度分离》,伊格言 著,中信大方,2021年6月。

知道大概就够了,人类需要可接受的模糊

言人人殊,全球热议──正是我们此刻所亲眼目击。让我们先从Ted Chiang说起吧。同属创作者,美国华裔科幻小说家特德·姜(Ted Chiang/姜峯楠,科幻作家,小说《你一生的故事》被改编为电影《降临》)今年2月在《纽约客》写了一篇文章谈ChatGPT,引起不少回响(原文题为“ChatGPT Is a Blurry JPEG of the Web”)。他的论点是:ChatGPT本质上就像是一个以问答方式为网络上一切数据提供“模糊图像”或“缩图”的预览程序。

试想,如果有一天,地球行将毁灭,你必须在地球毁灭前把人类曾在网络上创造的所有数据(一个文明的副本)复制进你的硬盘带走──当然,你的硬盘空间必然不足,所以你必须写一个“有损压缩”程序,将一切数据压缩进你的硬盘;而如此“有损压缩”的过程将导致数据必然难以百分百精确。与原件相比,你硬盘中被压缩过的数据一定有某些不精细处,有某些东西丢失了;但ChatGPT(的压缩技术)会让你感觉,你看到的图还是大致有个样子,尚可接受。

此即是特德·姜一文的重点。那么,ChatGPT的技术到底是什么呢?我并非AI专家,为了搞清楚这件事,还特地去做了一点粗浅研究(是以若有错误,尚祈大家指正)。很简略地说,我们目前眼见的ChatGPT,是一个“生成性-预训练模型”(generative pre-trained transformer,GPT)。何谓“生成”?答案是,生成一堆语言,生成一堆文字,从而构成几个句子,或一篇文章。何谓“预训练”?答案是,预先用OpenAI准备好的数据库(数据主要来自2021年以前的网络,并经真人检视筛选),配合真人训练师训练过。

此即是所谓“生成”以及“预训练”。是以,自人类创造ChatGPT的内在逻辑观之,它仅仅是个“说话”模型(亦即所谓“大语言模型”,LLM)而已;与某些自动选字、选词的中文输入法雷同。换言之,你可以直接把它想象成一个超级厉害的,可以自动选“句”、选“段”的中文输入法。

也因此,对于一般开放性的问题,它其实连一般我们所说的归纳汇整(网络数据)的能力都还不怎么灵光;之所以有时令人错觉它会归纳整理,是因为它真的还蛮会“说”的──它本质上是个语言模型,它的专长就是“生成”一堆语言。你可以批评它是个空话/废话专家;但因为它的空话/废话经过组织,所以有时乍看下还真的颇像那么一回事。但事实上──重点来了──它“听不懂”它自己在说什么。

是以,当你直接掷入一篇完整、明确的文章请它归纳整理,相较之下,它可能也会整理得还可以,因为你明确地给了它材料。而当你给了它材料,即等同于大幅度缩小了它“生成文句”的选择范围。一个粗浅的比喻是,原来它可能得从1.6万个句子中选一个;而有了你提供的参考材料,它可能就变成从1600个句子中选一个就可以了。选择难度降低,生成结果的正确性提高,因此这“整理”的最后输出会看起来更像样些。但也因此,当你询问它一些可能在它数据库中相关数据匮乏的一般问题,它就答得乱七八糟,连基本知识数据都未必正确。

《地图与疆域》,[法]米歇尔·维勒贝克 著,人民文学出版社,2012年3月。

问题是,这样的一张1:1地图有用吗?答案大概是没有。因为你光是把它摊开来看清楚,就比你实际上开车去到那里更累、更耗能(说起来这有点像“拉普拉斯妖Démon de Laplace”的概念──在此无法详述,知道的人就懂得我在说什么)。而这暗示了什么?这告诉我们,所谓“索引”,所谓“缩图”,那些将实质内容“有损压缩”的方法,即便有损,但在某些时候本来就是必要的。我们常需要一个可靠的助理来替我们汇整或转述信息。我们常要求你“先说结论”以节省我们的时间。我们必备一张1:10000的地图以便我们预先得知在那个地方大概有些什么。地图/缩图/模糊图像的功能,本来就在于让你不用真正动身,就能知道重点;让你在不太耗能的前提下,对于某些事情“知道个大概”。

而人的生存,原本就是基于这样的程序而存在的──在减少耗能的状态下去知道某些事实、更多信息、尽可能多的情报;就像我们洞穴中的祖先会想通过口耳相传以及团队合作预先知道现在河边有一群狮子,先别去那里打猎之类的。这就是大脑的功能,也是知识与理论的功能。人类中枢神经的原始设计原本就不是为了绝对的、事实上的精确;而所有的事先模拟、运算、推演、理论模型,都是为了在这个复杂万端的世界里取得“缩图”,并进而取得生存优势。缩图就是一个用以预估未来状态的模型──正如史蒂芬·霍金在《大设计》中所说的“依赖模型的实在论”(Model Dependent Realism,MDR)。而在这样的生存优势里,有些时候,你“知道个大概”就够了──这是演化的必然结果。一切都是为了那些特德·姜自己所指出的“可接受的模糊”而存在的。

《地图册》,[阿根廷]豪尔赫·路易斯·博尔赫斯 著,上海译文出版社,2016年8月。

“不可接受的模糊”是不是一种平庸之恶

但既然如此,我的联想就来了:ChatGPT目前提供给我们的那些“不可接受的模糊”(你问它问题,然后它基于很会说话,于是随口编织一套胡话/空话糊弄你),不就是说谎吗?

那么,AI在欺骗你?是的。但如果我下个标题“AI欺骗人类”,那就是标题党了。因为ChatGPT并不是刻意欺骗你的。它连那个“意”都没有,是以,当然也不可能是有意、故意的。但结果许多人居然可能就此被它给糊弄过去了。而目前这大型语言模型不过是1750亿个参数的等级;以后参数规模再往上加大,那还得了?

换言之,届时我们所身处其中的,将是一个由虚假信息与无聊篇章所构筑而成的世界。但另一方面,我们在日常生活中四处偶遇的废话/胡话/空话还少吗?某些不痛不痒的议论与偏见,某些毫无洞见的篇章,不是俯拾即是吗?这些虚假信息与无聊言论,原本就充斥在我们生活中,不是吗?但ChatGPT是否将导致这些现象放大?这是否值得我们保持警戒?

事实上,同样就在今年3月,语言学家、哲学家诺姆·乔姆斯基(Noam Chomsky)与另外两位作者伊恩·罗伯茨(Ian Roberts)、杰弗里·瓦图穆尔(Jeffrey Watmull)共同于《纽约时报》发表了题为《ChatGPT的虚假承诺》的文章。作者之一的杰弗里·瓦图穆尔(像忙着尝鲜的我们一样)测试了当时的ChatGPT。他问它:“改造火星来支持人类生命是否是道德的?”一如预期,ChatGPT回复了一堆不痛不痒的废话/空话;而这样的废话与空话在上述乔姆斯基等人的思路中,被评为“在这里,ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场”。

这批评堪称措辞严厉。而且让我们脑补一下:将之结合特德·姜的论点,我们可以说,这些批判当然是针对姜文中的那些“不可接受的模糊”而来的。换言之,这样的批判也提醒了我们:这些“不可接受的模糊”的危害,有可能比我们所想象的更为巨大。

ChatGPT-4使用界面。

所有乐于人文思索的人们必然会对文中“ChatGPT表现出某种类似邪恶的平庸”的字句心生警惕,因为英文原文用的确实就是“the banality of evil”,汉娜·阿伦特的概念。而且我怀疑,它正是给我们提供了一个在纽伦堡大审判之外“平庸之恶如何诞生”的全新范例。因为,如果我们暂且接受阿伦特的提点(我个人并不完全赞同阿伦特的看法,但这与本文主题无关,且按下不表)──某些人只是因为懒于思索、不习惯思索或无能思索便足以促成平庸之恶;则恰如上述,根本没在思索,仅仅长于、乐于“生成”的ChatGPT,绝对会变成平庸之恶的材料库。至少,它必然稀释那些我们分给真正的洞见的注意力。

最后,让我们动用自己的智慧(乔姆斯基文中说的“创造解释”的能力──当然,原则上同义于上述“依赖模型的实在论”)来推演一下可见的近未来(near future)。我的猜测是,此刻在我们面前触手可及的未来将是:ChatGPT将很快被用于信息战,被用于生产大量虚假信息;与此同时,用以区别并标记假信息的AI也必然会立刻问世(效度如何不清楚,但至少一定程度有用)。

这会是个AI的愚人节,而长远来看,人终将淹没在真假信息、质量参差的信息的巨大洪流中,因为这点我们在十多年来的社交媒体时代已真切目击。我们不得不承认,这是文明持续演化的结果,或许是必然结果。准确地说,所有的信息媒介(文字、话语、影像、声音,以及脑机接口出现之后的味觉、嗅觉、触觉等所有可能媒介)全都将淹没在真假信息的汪洋中。“可接受的模糊”和“不可接受的模糊”(以及某些处于中间灰色地带的信息)将混杂不分,同时填满我们的注意力,塞爆我们的中枢神经。

这样的结果预示了两种可能的未来路径:第一,悲观点说,平庸之恶的效果将被放到最大;我们所身处的将是一个(原则上)是非难辨、青红皂白不分的,信息轰炸狂欢的世界。第二,如果乐观点说,被放到最大的也或许不会是平庸之恶(人类或许会找到办法节制这点),而是平庸的平庸(的平庸的平庸......),俯拾即是的平庸,一望无际的平庸。如短视频平台上海量的无意义短视频那样的平庸。而且因为这样的平庸符合人类心智接受持续刺激的需求(多巴胺成瘾),所以势不可逆。是以,反方向来说,从信息洪流中筛选自己需要的东西也将耗尽人类心智的精力。

你可能会问:有那么严重吗?

这也就是乔姆斯基与特德·姜的忧虑吧。最后,让我们再回到这个“ChatGPT说谎”的“标题党”上。如上述,我们并不认为ChatGPT的通篇胡话堪称刻意说谎,因为它连刻意的“意”都没有──但等等。真的吗?

我怀疑,人类在此所面临的问题,其实正类同于本文开篇所提出的“联想”──如果人类能听懂虎鲸说话,那么你将如何看待它?我们此刻所面对的ChatGPT,也等同于“另一个智慧物种”。与其讨论它是否有意识,更有意义的问法可能是,它的(所谓)意识和人类的意识有什么不同点?又有什么相同处?它可能有意识,但不是我们人类所拥有的“这种意识”──它看来或许比我们单纯(我立刻可以想到一个它似乎没有而人类确实拥有的,也因之而使人类更为复杂并难以捉摸的心智特征:潜意识),但人类却又显然不够了解它。

作者:伊格言

编辑:王菡

校对:刘军

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
帝王之星(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索