·两位人工智能界的重磅专家,甚至因为都对ChatGPT持反对态度而消解了之前的长期矛盾。
2月7日,谷歌宣布将推出ChatGPT的竞争对手巴德(Bard),但遭遇十分尴尬的错误。一张演示功能的动图显示,巴德表示,美国宇航局的詹姆斯·韦伯(James Webb)太空望远镜拍摄了太阳系外行星的第一张照片。实际上,这张照片是由欧洲南方天文台的甚大望远镜(VLT)拍摄的。谷歌表示,这凸显了对聊天机器人进行“严格测试”的必要性。
这一错误加剧了对此类ChatGPT产品的质疑。早在2016年,微软就因为聊天机器人Tay生成种族主义和性别歧视信息道歉,Tay将女权主义比作癌症,并暗示一些暴力事件没有发生过。去年,Meta公司推出了一款对话式人工智能Blend Bot,这款机器人很快和Meta首席执行官、Facebook创始人马克·扎克伯格唱起了对台戏。Blend Bot告诉记者,在得知Facebook的丑闻后,它已经删除了自己的Facebook账户,并说:“自从删除Facebook后,我的生活好多了。”
ChatGPT对某些问题的回答也错误频出,其言论甚至包含一些有害内容和歧视观点。自它去年底推出,直到今年初火爆“出圈”,不乏一些坚定的看衰者反复诉说着此类产品的问题,其中包括人工智能界的重磅专家,比如Meta首席AI科学家、图灵奖得主杨立昆(Yann LeCun),美国作家、Robust. AI公司创始人、纽约大学教授加里·马库斯(Gary Marcus),这两位专家甚至因为都对ChatGPT持反对态度而消解了之前的长期矛盾。
在全球AI学术界和科技媒体界,每天都有新的文章出炉,客观冷静地探讨ChatGPT的技术成分和社会影响,给如今似乎有些过火的ChatGPT热潮吹来一丝凉风。在科学界,真理越辩越明。
美国作家、Robust. AI公司创始人、纽约大学教授加里·马库斯(Gary Marcus)。
学术与商业考量
除了马库斯和杨立昆,许多业内人士也给出了自己的观点。
牛津大学(University of Oxford)计算机科学教授迈克尔·伍尔德里奇(Michael Wooldridge)说:“神经网络的灵感来自于动物大脑和神经系统中出现的细胞结构,它们被构造成大规模互联的网络,每个组件执行非常简单的任务,并与大量其他细胞通信,它们使用的结构是受我们在动物大脑中看到的所启发。”
大型语言模型被输入由数十亿单词组成的数据集,并基于统计概率,建立一个通常跟随前一段文本的单词和句子的模型。伍尔德里奇说:“网络对什么是‘真’或‘假’没有任何概念。他们只是尽可能地写出最有可能的文本来回答所给的问题或提示。因此,大型语言模型经常出错。”
伍尔德里奇表示,就像巴德关于望远镜的错误一样,聊天机器人会在输入的大量文本中反映出各种偏见。他说:“文本中包含的任何偏见都将不可避免地反映在程序本身中,这对人工智能来说是一个巨大的持续挑战——识别和减轻这些偏见。”
研究人员齐拉格·沙阿(Chirag Shah)和艾米丽·M·本德(Emily M. Bender)在一篇题为《定位搜索》(situational Search)的论文中指出,聊天机器人界面的引入甚至有可能加剧偏见问题。聊天机器人不仅倾向于提供单一的答案,而且答案的权威性也因人工智能的神秘性而增强,它们的答案来自多个来源,通常没有适当的归属。而这与搜索引擎提供的链接列表相比变化巨大,在传统搜索引擎中,每个链接都可以点击和询问。
因此,聊天机器人并不是真正的人类大脑,也只能给出听起来似乎合理的文本回答,而这些回答又会被误认为是正确答案。
萨里大学(University of Surrey)以人为本的人工智能研究所(Institute for human - centered AI)主任安德鲁·罗戈斯基(Andrew Rogoyski)博士表示,就像谷歌在演示时的情况一样,训练AI的数据集可能导致了聊天机器人的错误。
对于近日全网关注的ChatGPT热潮,罗戈斯基也给出了不一样的观点,他认为这本质上依旧是品牌之间的商业行为。罗戈斯基说:“大型人工智能模型真的是不可持续的,生成式人工智能和大型语言模型能够做出很厉害的事情,但它们仍然不够智能。它们不理解自己产生的输出,也不会拥有洞察力、想法这些东西。事实上,这只是品牌之间的一场战斗,利用人们当前对生成式人工智能的兴趣来重新划分商业版图。”
相关文章
猜你喜欢