人工智能在过去十年取得了巨大的进步,但我们从未见过人工智能研究人员像现在这样兴奋——一种名为GPT-3的新系统的问世改变了人工智能的格局。那么GPT-3是什么,它将带来什么影响呢?
GPT-3的训练数据集也十分庞大。整个英语维基百科(约600万个词条)仅占其训练数据的0.6%。训练数据的其他部分来自数字化书籍和各种网页链接。不仅包括新闻文章、食谱和诗歌之类的内容,还包括程序代码、科幻小说、宗教预言等各种你可以想象到的任何文字。上传到互联网的文本类型都可能成为其训练数据,其中还包括不良内容,比如伪科学、阴谋论、种族主义等等,这些内容也会投喂给GPT-3。
这种深度和复杂性使输出也具有复杂性。GPT-3目前以开放测试版的形式提供,预计最终会推出付费的私人测试版。OpenAI表示,对于明显有害的使用途径,如垃圾邮件、假新闻等,他们将终止API访问。但最明显受到威胁的人群主要是原创作者。
但是狭义的人工智能正在变得不那么狭义,人类开始让计算机系统自己学习,这逐渐带来了一些问题——在美国,当你训练一个计算机系统来预测哪些罪犯会再次犯罪时,你使用的是一个对黑人和低收入人群有偏见的刑事司法系统的输入,所以它的输出结果很可能也会对黑人和低收入人群有偏见。当你发布一个写有说服力的假评论或假新闻的程序,可能会让这些评论或假新闻广为传播,让真相更难被曝光。
加州大学伯克利分校人类兼容人工智能中心(Center for human compatible AI)的罗西•坎贝尔(Rosie Campbell)教授认为,这些例子说明了专家们对未来人工智能的巨大担忧。但关于GPT-3最令人不安的事情之一是,它反馈给人类的是我们所要求的,而不是我们想要的。
如果你给GPT-3一个“这是一个小故事”的提示,它会写出一个明显平庸的故事。如果你用“这是一个获奖的短篇故事”来提示它,它会写得更好。因为它是在互联网上训练的,而互联网上的大多数故事都是不好的,而它的动机不是想出最好的文本或我们最想要的文本,只是看起来最符合我们给出的提示的文本。
目前,尽管人们已经用GPT-3来写关于GPT-3欺骗人类的计划的宣言,但GPT-3还远没有强大到足以造成人工智能科学家警告的风险。但可以预见,总有一天,我们会拥有能够像人类一样推理的计算机系统。所以,尽管从算法的角度来看,GPT-3机器学习模型并不是革命性的,但它仍将开创人机交互的新时代,GPT-3预示着一场科技的民主革命。
iWeekly周末画报独家稿件,未经许可,请勿转载
相关文章
猜你喜欢