> 自媒体 > AI人工智能 > ChatGPT弊端何在?复旦哲学教授为你祛魅
ChatGPT弊端何在?复旦哲学教授为你祛魅
来源:新民晚报
2023-05-12
238
管理

昨天,庆祝复旦大学建校118周年相辉校庆系列学术报告第一场在该校相辉堂南堂拉开帷幕,复旦哲学学院教授徐英瑾以“从人工智能哲学的角度看ChatGPT”为题登台开讲。徐英瑾带领听众回顾了人工智能的前世今生和ChatGPT技术的发展路径,并从哲学角度分析这一技术的主要弊端——将“常人”的意见予以全面的机械化复制,从而加剧人类“自欺”现象的泛滥。

在史蒂文·斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。这背后隐含了一个深刻的哲学问题——机器能够思考吗?正是这个疑问,当年引发了徐英瑾对人工智能的学术兴趣。

探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了人工智能之父阿兰·图灵提出的行为主义标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。

没有通过图灵测验,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,阐释了与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。

对于人工智能的发展,社会各界的观点目前可大致分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段,徐英瑾对此表示赞成。

“理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是Chat Generative Pre-trained Transformer,其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术 深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。

尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果,因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。

从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。

“这需要我们的高度警惕,”徐英瑾强调,“假若ChatGPT技术在托勒密的时代就出现,哥白尼的‘日心说’恐怕会永远被判定为错误答案。”

由于人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。技术的跨越必然需要带来应用场景中的深入观察,无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。

新民晚报记者 张炯强

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
赶海的老阿姨(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索