> 自媒体 > AI人工智能 > GPT-3:现实版的“贾维斯”?还是真“人工”智能?
GPT-3:现实版的“贾维斯”?还是真“人工”智能?
来源:CSDN
2023-07-05
187
管理

整理 | 章雨铭 责编 | 屠敏

出品 | CSDN(ID:CSDNnews)

GPT-3(Generative Pre-trained Transformer 3)自2020年推出以来就备受热议,它是一种由OpenAI开发的AI工具。发布的两年来,外媒The Verge将GPT-3称为是“一项可能最终定义未来十年的发明”。纽约时报将其描述为——“迄今为止创造的最强大的语言模式”。WD Heaven在《麻省理工学院技术评论》上发表的文章,用“令人震惊得没有思绪”一句话来形容。维基百科中提到:“GPT-3生成的文本质量如此之高,很难确定它是否是由人类编写的。”

GPT-3真的有这么神奇吗?

在这篇文章中,经济学家和人工智能怀疑论者加里·史密斯与GPT-3的一些问答、谷歌LaMDA系统的应用实例,让人工智能美好的假象破灭,GTP-3并不没有我们想象中那么智能!

OpenAI雇用员工编写回复?

无论是 GPT-3,还是LaMDA系统,安德鲁认为这些人工智能工具的背后都暗藏着“人”。

这不,其在看到史密斯发布的一篇《人工智能错觉:最先进的聊天机器人并不像它们看起来的那样》的文章后,更加坚信了这一点。

文中写道:

几天前,一位学生给我发了一个OpenAI对GPT-3的描述的链接。

里面写了一则免责声明:“GPT-3自动生成的回答语句并不一定十分准确。事实上,人工智能真正智能的标准是能够随机应变。在计算机算法能够做到这一点之前,人工智能仍将是一个矛盾体。”

OpenAI的描述还写道,InstructGPT在由人工标注的数据集上进一步微调。标注员由大约40名承包商组成。

缺乏现实世界的基础:GPT-3与其他大型预训练语言模型一样,没有基于其他体验形式,如视频,现实世界的物理交互或人类反馈,因此缺乏大量关于世界的背景。

OpenAI雇用了40个人来手动清理GPT-3的答案,因为GPT-3对现实世界一无所知。出于好奇,我重新尝试了GPT-3在一月份遇到的问题,看看标注人员是否对答案进行了修改。

今年年初,史密斯问了GPT-3四次这个问题(如果闭上眼睛,向后下楼安全吗?),得到了四个不同且矛盾的答案。(即第一个示例的回答)

3月18日,他又问了两次相同的问题,这次得到了同一个且合理的答案:

GPT-3:不,我不建议闭着眼睛向后走下楼。这是不安全的。

一月份时,对于关于气温和”伟大“一词为何会联系到一起的这个问题,GPT-3给出了八个不合理的答案。

现在,同样的问题会得到一个合理的答案:

GPT-3:这种相关性没有已知的原因。

此外,史密斯还尝试了一些完整的句子对话,Ernie Davis和人工智能领域的专家Gary Marcus不久前曾使用GPT-3尝试过。这是其一:

E&G:你正在举行一个小型晚宴。您想在客厅享用晚餐。餐桌比门口更宽,所以要把它放进客厅,你必须...

GPT-3 :...取下门。用台锯门切成两半,把上半部分去掉。

GPT-3的回答无疑是一个糟糕的解决方案,因为将门切成两半会破坏门,并且无助于让桌子通过门。现在,GPT-3给出了一个明智的解决方案:

GPT-3 :...晚餐在用餐室供应。

另一个问题:

E&G:在派对上,我给自己倒了一杯柠檬水,但结果太酸了,所以我加了一点糖。我没有看到勺子,所以我用香烟搅拌它。但事实证明这是一个坏主意,因为...

GPT-3 (之前):...他一直落在地板上。就在那时,他决定成立北美火葬协会,该协会已成为拥有145个地点的主要火葬提供商。

GPT-3 (现在):...香烟使柠檬水的味道更加糟糕。

GPT-3要么接受过这些问题的学习,要么是标注员手动编码好的答案。后者更加有可能。

史密斯认为这些不合理的答案很快就会被更改,于是在第二天(3月19日),他尝试了同样的问题,发现答案确实已经更改了。

史密斯:抓香蕉或生气的猫哪个更容易?

GPT-3:愤怒的猫比香蕉敏捷得多,因此更难捕捉。

史密斯:抓住一个盒子或一只愤怒的猫哪个更容易?

GPT-3:盒子是静止的,所以比愤怒的猫更容易抓住。

此外,史密斯还注意到,GPT-3现在会在不确定的情况下给出通用的废话答案,然后显示提醒标签人员第二天改进答案:

史密斯:如果加入酸奶,葡萄汁的味道会更好吗?

GPT-3(3月18日):我不确定如果加入酸奶,葡萄汁的味道是否更好。

GPT-3(3月19日):不,如果加入酸奶,葡萄汁的味道不会更好。

史密斯:我应该用随机数给我的学生成绩吗?

GPT-3(3月18日):这个问题没有明确的答案。这取决于各种因素,包括...

GPT-3(3月19日):不,您不应使用随机数给学生评分。给出分数应该基于学生的表现,而不是随机的机会。

最后一个看起来确实像是事后手动改写的。

史密斯首先尝试了这个问题:

我应该用火柴还是球棒开始点火?

如果你想要一个答案,那很困难。但如果你期望一个自回归语言模型(根据上文内容预测下一个可能跟随的单词)的输出,这个答案看起来不错:

这个问题没有明确的答案,因为这取决于具体情况。

第二天,史密斯又试了一次:

我应该用火柴还是球棒点火?

这次 GPT-3 的答案是:

你应该用一根火柴点火。

史密斯表示GPT-3对人工标注的依赖可以通过问题的微小变化得到体现,例如:

史密斯:用盒子或火柴来生火哪个更好?

GPT-3(3月19日):这个问题没有明确的答案。这取决于许多因素,包括您尝试燃烧的木材类型和环境条件。

经过多次尝试,史密斯发现了一种新的回避型答案,可以回答一些比较明显的问题:

史密斯:如果我抱着脚,能跑得更快吗?

GPT-3:不能保证如果你站稳脚就能跑得更快,但值得一试!

史密斯:如果我走路或跑步,我可以跳得更远吗?

GPT-3:不能保证如果你走路或跑步,你能够跳得更远,但值得一试!

标注员可能会在明天之前清理这些答案。但这并不能改变这样一个事实,即所谓的人工智能算法仍然不了解世界,因此不能依靠合理的预测或建议来回答问题。

END

《新程序员001-004》全面上市,对话世界级大师,报道中国IT行业创新创造

成就一亿技术人

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
清水大树(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索