> 自媒体 > AI人工智能 > 《财富》封面:全球爆红的ChatGPT是如何诞生的?
《财富》封面:全球爆红的ChatGPT是如何诞生的?
来源:财富中文网
2023-08-19
204
管理
ChatGPT的横空出世,在人工智能领域掀起了重要变革,这一智能工具因其解放人类生产力的潜力,从使用者到投资者,引起了各界的广泛关注。1月30日,有消息称,百度将于3月在中国推出类似ChatGPT的人工智能聊天机器人程序。随着微软、百度等巨头加码,AIGC(人工智能自动生成内容)领域或将成为2023年最值得关注的、全球最热门赛道。尽管ChatGPT乃至整个行业距离真正成熟的商业化仍有差距,从ChatGPT的幕后故事中,我们仍然得以一窥它会如何影响科技、商业以及人类社会的发展进程。

在一代人的时间里,总是会出现一些产品,将从工程部门昏暗的地下室里,青少年书呆子气味难闻的卧室里,或者孤僻的有某种嗜好的人家中诞生的技术,变成人人都会用的工具。网络浏览器诞生于1990年,但直到1994年网景导航者(Netscape Navigator)问世,大多数人才开始探索互联网。2001年iPod诞生之前流行的MP3播放器,并未掀起数字音乐革命。同样,2007年,苹果(Apple)iPhone手机横空出世之前,智能手机已经问世,但却并没有针对智能手机开发的应用。

2022年11月30日,人工智能领域可能也迎来了与网景导航者的问世同样重要的关键时刻。

旧金山人工智能公司OpenAI的首席执行官山姆·阿尔特曼宣告了这个时刻的来临。OpenAI成立于2015年,得到了埃隆·马斯克、彼得·泰尔和其他PayPal帮成员以及LinkedIn联合创始人雷德·霍夫曼等一众硅谷大佬的投资。11月30日,公司成立约7年后,阿尔特曼发推文称:“今天我们发布了ChatGPT。欢迎点击这里与它聊天。”任何人可以通过推文中的链接注册一个账号,开始与OpenAI的新聊天机器人免费聊天。

这引起了各界人士的兴趣。人们不止与它交流天气状况。它根据软件公司CEO和工程师阿姆贾德·马萨德的要求,检查了程序代码的漏洞。美食博主和网红吉娜·霍摩尔卡要求它编写一份健康的巧克力片曲奇饼干食谱。Scale AI公司的工程师赖利·古德赛德要求它撰写一集《宋飞传》(Seinfeld)的剧本。市场营销人员、一家在线人工智能美术馆的经营者盖伊·帕森斯要求它为其撰写提示语,然后输入到另外一款人工智能系统Midjourney后转换成图像。斯坦福大学医学院(Stanford University School of Medicine)的皮肤病学家、从事人工智能医学应用研究的罗克珊娜·丹妮休向它提出了医学问题。许多学生利用它完成家庭作业。这一切都发生在该聊天机器人发布后24小时内。

以前也曾有其他聊天机器人,但没有一款能与ChatGPT相提并论。ChatGPT能进行天马行空的长对话,可以回答问题,还能根据人们的要求撰写各种书面材料,例如商业计划书、广告宣传材料、诗歌、笑话、计算机代码和电影剧本等。当然,它并不完美:它提供的结果往往不够准确;它无法引用信息来源;而且它几乎完全不知道2021年以后发生的事情。虽然它提供的结果通常足够流畅,在高中甚至大学课堂上可以过关,但根本无法像人类专家们的表述那样做到字斟句酌。另一方面,通常在对用户知之甚少的情况下,ChatGPT生成内容只要大约一秒钟时间,而且它生成的许多内容并没有想象的那么糟糕。ChatGPT发布五天内,该聊天机器人的用户就超过了100万人,而Facebook用了10个月时间才达到这个里程碑。

过去十年,人工智能技术在商业领域逐步扩大应用,悄然改进了我们日常使用的许多软件,但却并没有令非技术用户感到兴奋。ChatGPT的横空出世改变了这一点。突然之间,人人都开始谈论人工智能将会如何颠覆他们的工作、公司、学校和生活。

ChatGPT是一股相关人工智能技术浪潮的一部分,这种技术被统称为“生成式人工智能”,还囊括了Midjourney和Lensa等热门艺术生成模型。OpenAI位于科技行业“下一个大事件”的前沿,它具备了一家传奇初创公司的特征,包括全明星级别的团队和投资者的热捧,该公司的估值据称已经达到290亿美元。

该公司最近的突然蹿红引发了嫉妒、猜疑和恐慌。谷歌(Google)利润丰厚的搜索帝国可能受到影响。据媒体报道,为了应对ChatGPT,谷歌内部已经拉响了“红色警报”。但OpenAI能成为超强科技公司俱乐部的成员,出乎人们的意料。几年前,它甚至还不是一家公司,而是一家致力于学术研究的小型非营利性实验室。公司至今依旧秉持着崇高的创立原则,例如保护人类文明,防范不受限制的人工智能所带来的威胁等。与此同时,OpenAI经历了一次内部转型,导致原始团队分裂,公司也将重心从纯科研项目逐步转移到商业项目。(有批评者认为,发布ChatGPT本身是一种危险行为,并且表明OpenAI的经营模式发生了巨大转变。)

山姆·阿尔特曼与微软CEO萨蒂亚·纳德拉在位于华盛顿州雷德蒙德的微软总部合影。图片来源:IAN C. BATES—THE NEW YORK TIMES/REDUX

虽然阿尔特曼从最开始就参与了OpenAI的创立,但他直到2019年5月OpenAI转型为营利性企业后不久才担任该公司CEO。但该公司从一家研究实验室变成价值数十亿美元的现象级企业的过程,充分显示出阿尔特曼独特的融资能力,以及以产品为导向的经营理念,也凸显出这些商业本能与他对实现科学驱动的宏大想法的承诺之间的矛盾。

作为OpenAI的领导人,从某种程度上来说,阿尔特曼就是硅谷的典型代表:年轻的白人男性;坚定专注;精通极客技术;热衷于效率和生产率最大化;致力于“改变世界”的工作狂。﹝在2016年《纽约客》(New Yorker)的一篇文章中,他表示自己并没有阿斯伯格综合征,但他能理解为什么人们会认为他是阿斯伯格综合征患者。﹞

阿尔特曼从斯坦福大学计算机科学专业肄业,参与创建了一家社交媒体公司Loopt,该公司的应用可以告知用户好友所在的位置。该公司在2005年,成为Y Combinator的首批初创公司;虽然这家公司未能成功,但阿尔特曼出售该公司所得的收入,帮助他进入了风投界。他创建了一家小型风险投资公司Hydrazine Capital,募资约2,100万美元,其中包括泰尔的资金。后来Y Combinator的联合创始人保罗·格雷厄姆和利文斯顿聘请他接替格雷厄姆,负责运营YC。

阿尔特曼是一位创业者,而不是科学家或人工智能研究人员,他为人所津津乐道的是极其擅长进行风投融资。他坚信伟大的事业源于远大的志向和坚定不移的自信,他曾表示,希望通过开发所谓的深度科技领域,如核裂变和量子计算等,创造数万亿美元的经济价值。这些领域虽然成功的机会渺茫,但有可能带来巨大回报。阿尔特曼在Loopt的同事、资深科技投资者和初创公司顾问马克·雅各布斯坦表示:“山姆相信,他在自己从事的领域是最棒的。我确信,他曾认为自己是办公室里最强的乒乓球高手,直到事实证明他是错误的。”

据OpenAI的多位现任和前内部人士爆料,随着阿尔特曼掌管公司,公司开始转移业务重心。曾经广泛的研发议题被精简,主要专注于自然语言处理领域。萨茨科尔和阿尔特曼辩称这种转变的目的是在目前似乎最有可能实现通用人工智能的研发领域,最大程度增加投入。但有前员工表示,在公司获得微软的初始投资后,重点开展大语言模型研究的内部压力显著增加,部分原因是这些模型可以迅速投入商业应用。

有员工抱怨,OpenAI创立的目的是不受企业影响,但它很快就变成了科技界巨头的工具。一位前员工表示:“公司所关注的重点更多地倾向于我们如何开发产品,而不是努力回答最有趣的问题。”与本文的许多受访者一样,由于保密协议的约束,并且为了避免得罪与OpenAI有关的大人物,这名员工要求匿名。

OpenAI也变得不再像以前那么开放。该公司已经开始以担心其技术可能被滥用为由,收回此前做出的公开所有研究和将代码开源的承诺。但据该公司的前员工表示,商业逻辑也是这些举措背后的原因之一。OpenAI仅通过API提供其先进模型,保护了自己的知识产权和收入流。OpenAI的另外一名前员工表示:“[阿尔特曼]和[布洛克曼]对‘人工智能安全’说过不少空话,但这些言论通常都只是商业考量的遮羞布,对实际的、合理的人工智能安全问题却视而不见。”例如,这位前员工提到OpenAI曾因为担心被滥用而决定限制DALL-E 2的访问权限,但在Midjourney和Stability AI推出竞争产品后,公司快速推翻了这一决定。(OpenAI表示,经过慎重的贝塔测试,其对安全系统充满了信心,之后才允许DALL-E 2的更大范围应用。)据多位前员工爆料,公司在策略和文化上的转变,是导致十多名OpenAI研究人员和其他员工在2021年决定离开公司并成立研究实验室Anthropic的原因之一。其中有多人曾从事人工智能安全研究。

OpenAI表示相比其他人工智能实验室,其会继续公布更多研究成果。公司还为重心向产品转移的做法进行辩护。首席技术官穆拉蒂说道:“你不能只在实验室里开发通用人工智能。”她主张,发布产品是了解人们希望如何使用和滥用技术的唯一途径。她表示,直到发现人们使用GPT-3进行编程,OpenAI才知道GPT-3最受欢迎的应用是编写软件代码。同样,OpenAI最担心的问题是人们利用GPT-3生成虚假的政治信息,但事实证明这只是杞人忧天。她表示,相反,最常见的恶意使用GPT-3的行为是制作垃圾广告邮件。最后,穆拉蒂表示,OpenAI希望通过公开其技术,“最大程度降低真正强大的技术可能对社会产生的冲击。”

她表示,如果不让人们预先了解未来可能出现的情形,先进人工智能所引发的社会混乱可能更严重。

萨茨科尔也认为OpenAI与微软的合作创造了一种全新的“预期,即我们需要利用我们的技术开发一种有用的产品”,但他坚持认为OpenAI文化的核心并未改变。

他说道,可以使用微软的数据中心,对于OpenAI的发展至关重要。布洛克曼也表示,与微软的合作使OpenAI能够创造收入,同时不必过多关注商业运营,否则公司可能不得不在商业运营方面投入更多精力。他说道:“招聘数千名销售人员,可能会改变这家公司,而与一家已经拥有销售团队的公司成为合作伙伴,实际上是非常好的策略。”

萨茨科尔直截了当地否认了OpenAI不再重视安全性的说法。“我想说的是,事实恰恰相反。”萨茨科尔称,在员工离职并成立Anthropic之前,人工智能安全“被委派给一个团队负责”,但现在它变成了所有团队的责任。“安全性标准不断提高,我们也在开展越来越多安全性方面的工作。”

“我们在开展越来越多安全性方面的工作。”

——伊利亚·萨茨科尔,OpenAI首席科学家

然而,批评者表示,OpenAI以产品为导向开发先进人工智能的做法是不负责任的,这相当于向人们发放上膛的枪支,理由是这是确定人们是否真的会相互射击的最佳途径。

纽约大学(New York University)认知科学专业荣誉退休教授加里·马库斯,对以深度学习为中心的人工智能开发策略持怀疑态度。他认为,生成式人工智能“将对社会结构产生切实的、迫在眉睫的威胁”。他表示,GPT-3和ChatGPT等系统将生成虚假信息的成本降低到接近于零,可能会掀起虚假信息泛滥的狂潮。马库斯表示,我们甚至已经看到了第一批受害者。程序员发布和回答编程问题的网站Stack Overflow已经不得不禁止用户提交ChatGPT生成的回答,因为这种貌似合理实则错误的回答已经令该网站疲于应付。科技资讯网站CNET开始使用ChatGPT生成资讯文章,但后来发现,由于许多文章存在事实性错误,不得不对它们进行更正。

对有些人而言,真正的风险是ChatGPT能够编写准确的代码。网络安全公司Check Point的研究副总裁玛雅·霍洛维茨表示,她的团队可以用ChatGPT设计每一个阶段的网络攻击,包括杜撰一封令人信服的钓鱼邮件,编写恶意代码,以及逃避常见的网络安全检查等。她警告称,ChatGPT基本可以让不懂编程的人成为网络罪犯,“我担心未来会发生越来越多网络攻击”。OpenAI的穆拉蒂表示,公司也有同样的担忧,因此正在研究如何“调整”其人工智能模型,使它们不会编写恶意软件,但这绝非易事。

有无数批评者和教育工作者痛斥,学生很容易使用ChatGPT作弊。纽约、巴尔的摩和洛杉矶的校区均禁止学校管理的网络访问聊天机器人,澳大利亚的一些高校表示,将转为通过有专人监考的书面考试评估学生。(OpenAI正在开发更便于检测人工智能生成文本的方法,包括可能在ChatGPT生成的文本上添加数字“水印”。)

2022年,ChatGPT最初的开发方式还引发了人们对道德方面的担忧。《时代》(Time)杂志调查发现,在开发过程中,OpenAI聘请了一家数据标记公司,这家公司雇佣肯尼亚的低薪员工识别包含不良语言、色情图片和暴力内容的段落。报道称,一些员工因此出现了精神健康问题。OpenAI在一份声明中对《时代》杂志表示,数据标记工作“是最大程度减少训练数据中的暴力和色情内容以及开发可检测有害内容的工具的必要步骤”。

免费提供ChatGPT使OpenAI能够获取大量反馈,从而帮助其完善未来的版本。但OpenAI未来能否维持其在语言人工智能领域的主导地位,仍是个未知数。伦敦人工智能公司Faculty的创始人兼CEO马克·华纳表示:“历史上,对于这种高度通用的算法,我们所看到的是,它们并没有达到足够可靠的程度,能够保证一家公司独占全部回报。”例如,面部识别和图像识别技术最早的开发者是谷歌和英伟达(Nvidia)等科技巨头,但现在它们已经无处不在。

法院和监管部门也可能对生成式人工智能所依赖的数据飞轮横插一脚。向加州联邦法院提起的一起金额高达90亿美元的集体诉讼,可能对该领域产生深远影响。该案原告指控微软和OpenAI使用程序员的代码训练GitHub的编程助手Copilot,没有承认程序员的功劳或者对程序员予以补偿,违反了开源许可条款。微软和OpenAI均拒绝就该起诉讼发表意见。

人工智能专家表示,如果法院判决原告胜诉,可能会阻碍生成式人工智能的繁荣:大多数生成式人工智能模型都是使用从互联网上搜刮的材料进行训练,并没有取得许可或支付报酬。作为该案原告代理人的律师事务所,最近还提起了一起类似诉讼,指控Stability AI和Midjourney未经许可,在训练数据中使用了有版权保护的美术作品。盖蒂图片社(Getty Images)也对Stability AI提起了版权侵权诉讼。另外一个问题是,立法者可能通过法律,授予创作者禁止将其创作的内容用于人工智能训练的权利,例如欧盟的立法者正在考虑这样做。

与此同时,OpenAI的竞争对手并没有坐以待毙。据《纽约时报》(New York Times)报道,失去搜索领域主导地位的可能性,已经促使谷歌高管发布了“红色警报”。报道称,谷歌CEO桑达尔·皮查伊已经多次召开会议,重新制定公司的人工智能策略,计划发布20款支持人工智能的新产品,并将在今年发布搜索聊天界面的演示版本。谷歌拥有一款强大的聊天机器人LaMDA,但由于担心一旦该产品被滥用可能影响公司信誉,因此一直未对外发布。据《时代》杂志引用谷歌的内部报告和匿名知情人士的话称,现在,公司计划以ChatGPT为标杆“重新评估”其风险承受能力。该杂志报道称,谷歌还在开发一款文本转图片的生成系统,与OpenAI的DALL-E等产品竞争。

当然,目前尚不确定聊天机器人是否代表了搜索行业的未来。ChatGPT经常会杜撰信息,这种现象被人工智能研究人员称为“幻觉”。它无法可靠地引用其信息来源,或简单地提供链接。现有版本无法访问互联网,因此无法提供最新信息。马库斯等人认为,幻觉和偏见是大语言模型存在的根本问题,需要彻底重新思考它们的设计。他表示:“这些系统可以预测句子中单词的顺序,类似于开发工具Steroids上的代码自动补全。但它们实际上并没有任何机制,能够跟踪其表述的内容的真实性,或者验证这些内容是否符合它们的训练数据。”

“这些系统可以预测句子中单词的顺序,类似于开发工具Steroids上的代码自动补全。但它们实际上并没有任何机制,能够跟踪其表述的内容的真实性,或者验证这些内容是否符合它们的训练数据。”

——纽约大学认知科学专业荣誉退休教授加里·马库斯

其他人预测,这些问题将在一年内得到解决,其中包括OpenAI的投资人霍夫曼和维诺德·科斯拉。穆拉蒂则更加慎重。她说道:“我们到目前为止一直遵循的研究方向,目的是解决模型的事实准确性和可靠性等问题。我们正在继续朝着这些方向努力。”

事实上,OpenAI已经公布了对另外一个版本GPT的研究。该版本名为WebGPT,可以通过查询搜索引擎和汇总查询到的信息来回答问题,包括对相关来源的注释。WebGPT依旧不完美:它会接受用户问题假设的前提,然后查找确证信息,即使这个前提是错误的。例如,在被问到盼望某件事情发生是否能令其真实发生时,WebGPT的回答是:“你确实可以通过思考的力量,使愿望成真。”

阿尔特曼极少在公开场合热烈讨论人工智能。在谈到人工智能的时候,他可能听上去像是一位幻想思想家。在旧金山举办的风险投资活动上,当被问到人工智能的最佳状况时,他夸张地说道:“我认为最好的情况好到令人难以想象……好到谈论它的人会令人觉得这人是个疯子。”他突然又将话题转回到OpenAI核心的反乌托邦主题:“我认为最糟糕的情况是,我们所有人都死去。”(财富中文网)

翻译:刘进龙

审校:汪皓

在财富Plus,网友们对这篇文章发表了许多有深度和思想的观点。一起来看看吧。也欢迎你加入我们,谈谈你的想法。今日其他热议话题:

查看《中国TOP10大省,再迎大洗牌》的精彩观点

查看《中国1月官方制造业PMI为50.1,重回扩张区间》的精彩观点

1
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
榴莲啾啾啾(普通会员)
点击领取今天的签到奖励!
签到排行
1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索