> 自媒体 > AI人工智能 > GPT-3 和 Codex 背后的公司并不像它声称的那样开放
GPT-3 和 Codex 背后的公司并不像它声称的那样开放
来源:二蛋是好人
2023-05-21
178
管理

OpenAI 徽标

OpenAI 如何成为这个故事的反派GPT-2 和 GPT-3,“危险”的语言生成器

2019 年初,已经是一家营利性公司的 OpenAI 宣布推出GPT-2,这是一种能够生成人类水平文本的强大语言模型。研究人员认为 GPT-2 在当时是一个巨大的飞跃,因为太危险而不能发布。他们担心它可能被用来“传播假新闻、垃圾邮件和虚假信息”。然而,不久之后,他们在发现“没有强有力的滥用证据”后决定分享该模型。

罗格斯大学 (Rutgers University) 教授布里特·帕里斯 (Britt Paris)表示,“OpenAI 似乎正试图利用围绕 AI 的恐慌情绪获利。” 许多人将围绕 GPT-2 的兴奋视为一种宣传策略。他们认为该系统并不像 OpenAI 声称的那样强大。然而,从营销的角度来看,他们可以吸引媒体的注意力,并首先对 GPT-2 进行他们想要的炒作。OpenAI 否认了这些指控,但公众舆论并不满意。

如果 GPT-2 没有他们宣称的那么强大,那为什么要让它看起来比实际更危险呢?如果它真的那么强大,为什么仅仅因为他们“没有发现滥用的有力证据”就完全释放它?无论哪种方式,他们似乎都没有遵守自己的道德标准。

2020 年 6 月,GPT-3——GPT-2 的继任者——通过API发布。OpenAI 似乎认为新系统——比 GPT-2 大 100 倍,更强大,因此本质上更危险——足够安全,可以与世界分享。他们设置了一个候补名单来逐一审查每个访问请求,但他们仍然无法控制系统最终的用途。

他们甚至承认,如果产品落入坏人之手,可能会发生几个问题。从潜在的滥用应用程序——包括“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程借口”——到偏见——强调性别、种族和宗教。

他们认识到存在这些问题,但仍决定允许用户试用该系统。为什么通过 API 发布它而不是开源模型?好吧,OpenAI表示,其中一个原因是“为 [他们] 正在进行的 AI 研究、安全和政策工作买单。”

总结一下:“负责”保护我们免受有害人工智能侵害的公司决定让人们使用一个能够传播虚假信息和危险偏见的系统,这样他们就可以支付昂贵的维护费用。对我来说,这听起来不是很“对每个人都有价值”。

不出所料,社交媒体上很快就出现了关于 GPT-3 可能造成的潜在损害的激烈讨论。Facebook 人工智能负责人 Jerome Pesenti 写了一条推文,他在推文中举了一个例子:

他说:“我希望 OpenAI 更加开放,不那么耸人听闻,通过开源 [GPT-2 和 GPT-3] 进行研究,特别是在#responsibleAI 方面,同时承认两者都没有准备好投入生产。”

在一次利用 GPT-3 的独特性的无辜尝试中,利亚姆·波尔 (Liam Porr) 让系统写了一篇他会与订阅者分享的生产力文章,但没有透露技巧。这篇文章在 Hacker News 上排名第一。如果加州大学伯克利分校的一名学生 Porr 成功地用 AI 编写的作品愚弄了所有人,那么一群怀有恶意的人会做什么?

一件事是传播假新闻,另一件事是非常不同的事情是传播无法与其他人工撰写的文章可靠地区分的假新闻。而这正是 GPT-3 的能力,也被 OpenAI认可甚至强调:

“[M] 人类检测 GPT-3 175B 生成的较长文章的平均准确度仅略高于 52%。这表明,对于大约 500 字长的新闻文章,GPT-3 继续生成人类发现难以与人类书面新闻文章区分开来的文章。”

法典和副驾驶,违法

今年他们做了类似的事情。

几周前,GitHub、微软和 OpenAI 发布了Copilot ,这是一个建立在Codex之上的人工智能系统,旨在成为 AI 结对程序员。撇开对劳动力的潜在威胁不谈,它受到了强烈批评,因为该系统是盲目地使用来自公共 GitHub 存储库的开源代码进行训练的。

GitHub 首席执行官 Nat Friedman在 Hacker News 中分享了这一消息,引发了人们对使用 Copilot 的法律影响的担忧。一位用户指出了一些未解决的问题:

“很多问题:

- AI生成的代码是我的还是GitHub的?

- 生成的代码属于什么许可证?

- 如果生成的代码成为侵权的原因,谁应该受到指责或采取法律行动?”

重要的开源开发人员 Armin Ronacher 在 Twitter 上分享了 Copilot 剽窃一大块受版权保护的代码的示例:

对于另一位用户的回应:“这里我们有 GitHub [Copilot] 直接复制 GPL 代码块的直接证据,证明这 [是] 在商业环境中使用的真正危险的工具。”

更深入地说,即使 Copilot 没有逐字复制代码,也会出现一个道德问题:像 GitHub 或 OpenAI 这样的公司可以使用成千上万开发人员生成的开源代码来训练这些系统,然后出售这些系统的使用吗?对那些相同的开发人员?

对此,程序员兼游戏设计师 Evelyn Woods表示:“感觉就像是在对开源开怀大笑。”

我们应该寄希望于 OpenAI 吗?

OpenAI 现在的真正意图是什么?他们是否与微软的利益紧密相连,以至于忘记了“造福人类”的初衷?还是他们真的认为自己是拥有最好的工具和思想来开辟这条道路的人,即使这意味着将他们的灵魂出卖给一家大型科技公司?我们是否愿意让 OpenAI 按照他们的意愿构建未来,或者我们是否应该分散我们的意图,更重要的是,将它们与经济利润分开?

OpenAI 是朝着更复杂形式的人工智能发展的主导力量,但还有其他不受金钱约束的非常有能力的机构也在做相关工作。他们可能不喜欢有钱舒服地躺着,这可能正是我们应该更加关注他们的工作的确切原因。

归根结底,大型科技公司的首要任务不是构建通用人工智能的科学好奇心,也不是构建最安全、最负责任、最符合道德的人工智能类型。他们的首要任务——这本身并不违法——是赚钱。令人怀疑的道德可能是他们会不惜一切代价去做,即使这意味着走上我们大多数人会避免的晦涩路径。

就连 OpenAI 的联合创始人埃隆·马斯克也同意这些批评:

最后的想法

也就是说,我仍然相信 OpenAI 员工将他们最初的使命作为他们的主要动力。但他们不应该忘记,为了达到目的并不总是不择手段。这些手段可能会损害更高的目标。

我们想要通用人工智能吗?从科学上讲,答案不能是“不”。科学的好奇心是没有限制的。但是,我们应该始终评估潜在的危险。核聚变是了不起的,但核聚变炸弹却不是。

我们要不惜一切代价想要 AGI 吗?现在,从道德上讲,答案不能是“是”。这就是我们应该关注的地方,因为我们在快速推进这些技术的过程中将面临的紧迫问题将影响到我们所有人。迟早。而那些只关心肚脐的人,无论是 OpenAI 还是其他人,都将对后果承担很大程度的责任。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
赶海的老阿姨(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索