整理 | 章雨铭 责编 | 屠敏
出品 | CSDN(ID:CSDNnews)
GPT-3(Generative Pre-trained Transformer 3)自2020年推出以来就备受热议,它是一种由OpenAI开发的AI工具。发布的两年来,外媒The Verge将GPT-3称为是“一项可能最终定义未来十年的发明”。纽约时报将其描述为——“迄今为止创造的最强大的语言模式”。WD Heaven在《麻省理工学院技术评论》上发表的文章,用“令人震惊得没有思绪”一句话来形容。维基百科中提到:“GPT-3生成的文本质量如此之高,很难确定它是否是由人类编写的。”
GPT-3真的有这么神奇吗?
在这篇文章中,经济学家和人工智能怀疑论者加里·史密斯与GPT-3的一些问答、谷歌LaMDA系统的应用实例,让人工智能美好的假象破灭,GTP-3并不没有我们想象中那么智能!
OpenAI雇用员工编写回复?
无论是 GPT-3,还是LaMDA系统,安德鲁认为这些人工智能工具的背后都暗藏着“人”。
这不,其在看到史密斯发布的一篇《人工智能错觉:最先进的聊天机器人并不像它们看起来的那样》的文章后,更加坚信了这一点。
文中写道:
几天前,一位学生给我发了一个OpenAI对GPT-3的描述的链接。
里面写了一则免责声明:“GPT-3自动生成的回答语句并不一定十分准确。事实上,人工智能真正智能的标准是能够随机应变。在计算机算法能够做到这一点之前,人工智能仍将是一个矛盾体。”
OpenAI的描述还写道,InstructGPT在由人工标注的数据集上进一步微调。标注员由大约40名承包商组成。
缺乏现实世界的基础:GPT-3与其他大型预训练语言模型一样,没有基于其他体验形式,如视频,现实世界的物理交互或人类反馈,因此缺乏大量关于世界的背景。
OpenAI雇用了40个人来手动清理GPT-3的答案,因为GPT-3对现实世界一无所知。出于好奇,我重新尝试了GPT-3在一月份遇到的问题,看看标注人员是否对答案进行了修改。
今年年初,史密斯问了GPT-3四次这个问题(如果闭上眼睛,向后下楼安全吗?),得到了四个不同且矛盾的答案。(即第一个示例的回答)
3月18日,他又问了两次相同的问题,这次得到了同一个且合理的答案:
GPT-3:不,我不建议闭着眼睛向后走下楼。这是不安全的。
一月份时,对于关于气温和”伟大“一词为何会联系到一起的这个问题,GPT-3给出了八个不合理的答案。
现在,同样的问题会得到一个合理的答案:
GPT-3:这种相关性没有已知的原因。
此外,史密斯还尝试了一些完整的句子对话,Ernie Davis和人工智能领域的专家Gary Marcus不久前曾使用GPT-3尝试过。这是其一:
E&G:你正在举行一个小型晚宴。您想在客厅享用晚餐。餐桌比门口更宽,所以要把它放进客厅,你必须...
GPT-3 :...取下门。用台锯门切成两半,把上半部分去掉。
GPT-3的回答无疑是一个糟糕的解决方案,因为将门切成两半会破坏门,并且无助于让桌子通过门。现在,GPT-3给出了一个明智的解决方案:
GPT-3 :...晚餐在用餐室供应。
另一个问题:
E&G:在派对上,我给自己倒了一杯柠檬水,但结果太酸了,所以我加了一点糖。我没有看到勺子,所以我用香烟搅拌它。但事实证明这是一个坏主意,因为...
GPT-3 (之前):...他一直落在地板上。就在那时,他决定成立北美火葬协会,该协会已成为拥有145个地点的主要火葬提供商。
GPT-3 (现在):...香烟使柠檬水的味道更加糟糕。
GPT-3要么接受过这些问题的学习,要么是标注员手动编码好的答案。后者更加有可能。
史密斯认为这些不合理的答案很快就会被更改,于是在第二天(3月19日),他尝试了同样的问题,发现答案确实已经更改了。
史密斯:抓香蕉或生气的猫哪个更容易?
GPT-3:愤怒的猫比香蕉敏捷得多,因此更难捕捉。
史密斯:抓住一个盒子或一只愤怒的猫哪个更容易?
GPT-3:盒子是静止的,所以比愤怒的猫更容易抓住。
此外,史密斯还注意到,GPT-3现在会在不确定的情况下给出通用的废话答案,然后显示提醒标签人员第二天改进答案:
史密斯:如果加入酸奶,葡萄汁的味道会更好吗?
GPT-3(3月18日):我不确定如果加入酸奶,葡萄汁的味道是否更好。
GPT-3(3月19日):不,如果加入酸奶,葡萄汁的味道不会更好。
史密斯:我应该用随机数给我的学生成绩吗?
GPT-3(3月18日):这个问题没有明确的答案。这取决于各种因素,包括...
GPT-3(3月19日):不,您不应使用随机数给学生评分。给出分数应该基于学生的表现,而不是随机的机会。
最后一个看起来确实像是事后手动改写的。
史密斯首先尝试了这个问题:
我应该用火柴还是球棒开始点火?
如果你想要一个答案,那很困难。但如果你期望一个自回归语言模型(根据上文内容预测下一个可能跟随的单词)的输出,这个答案看起来不错:
这个问题没有明确的答案,因为这取决于具体情况。
第二天,史密斯又试了一次:
我应该用火柴还是球棒点火?
这次 GPT-3 的答案是:
你应该用一根火柴点火。
史密斯表示GPT-3对人工标注的依赖可以通过问题的微小变化得到体现,例如:
史密斯:用盒子或火柴来生火哪个更好?
GPT-3(3月19日):这个问题没有明确的答案。这取决于许多因素,包括您尝试燃烧的木材类型和环境条件。
经过多次尝试,史密斯发现了一种新的回避型答案,可以回答一些比较明显的问题:
史密斯:如果我抱着脚,能跑得更快吗?
GPT-3:不能保证如果你站稳脚就能跑得更快,但值得一试!
史密斯:如果我走路或跑步,我可以跳得更远吗?
GPT-3:不能保证如果你走路或跑步,你能够跳得更远,但值得一试!
标注员可能会在明天之前清理这些答案。但这并不能改变这样一个事实,即所谓的人工智能算法仍然不了解世界,因此不能依靠合理的预测或建议来回答问题。
END
《新程序员001-004》全面上市,对话世界级大师,报道中国IT行业创新创造
成就一亿技术人
相关文章
猜你喜欢