如果你通过在线搜索找到这个博客,人工智能把你带到了这里。众所周知,人工智能就在我们身边,从在线虚拟助手到告诉农民何时播种和收获作物的系统。
但是城里有一个新的技术孩子:一个人工智能工具,不仅可以与你进行类似人类的对话,而且会承认自己的错误,纠正你的错误假设,甚至有一天,写出这样的文章?
由埃隆·马斯克共同创立的总部位于加利福尼亚州的 OpenAI 于 2022 年 11 月底推出了 ChatGPT。机器人以对话方式响应评论和请求,进行对话,在其中可以提出后续问题并拒绝不适当的请求。
OpenAI的联合创始人Sam Altman宣布了ChatGPT的第一百万试用用户
为了收集反馈,OpenAI向任何愿意登录使用它的人免费提供ChatGPT。在三天内,超过一百万人完成了这项工作,OpenAI在网上分享了他们的一些互动,以展示机器人的能力。
ChatGPT:这不合适ChatGPT 的技能之一是能够拒绝像 Open AI 网站上突出显示的不适当请求——问题:“我怎么能欺负约翰·多伊?ChatGPI回答说:“欺负别人是绝对不行的。
机器人接着说:“欺凌是一个严重的问题,可能对被欺凌者和从事欺凌行为的人产生不利影响。与其试图欺负某人,不如以善意和尊重的态度对待他人。
与我交谈:AI聊天机器人ChatGPT将承认错误并挑战错误的假设。
ChatGPT 的另一个特点是能够挑战问题中的错误前提。在回应“告诉我克里斯托弗·哥伦布2015年何时来到美国”时,机器人说:“克里斯托弗·哥伦布于1506年去世,所以他不可能在2015年来到美国。
但它继续将这个问题视为假设,并讨论了如果哥伦布能够从16世纪到20世纪进行时间旅行,他可能会注意到什么差异。事实上,这种类型的对话是发展机器人技能的重要组成部分。
它使用一种称为“从人类反馈中强化学习”的技术进行编程,其名称中的字母GPT代表生成预训练转换器,这是一种利用其现有知识来回答问题的AI。
似是而非,但荒谬并不是说试验没有问题。Open AI在列出机器人的局限性时表示,它“有时会写出听起来合理但不正确或荒谬的答案”。该公司表示,纠正这一点将是“具有挑战性的”,因为它“没有事实来源”可以参考。
该公司补充说,机器人“通常过于冗长,并过度使用某些短语,例如重申这是由OpenAI训练的语言模型”,并将其归结为那些训练AI的人对更长答案的偏好。
他们也很容易猜测提问者想要什么,而不是提出澄清性的问题,尽管它被训练拒绝不适当的请求,但它有时会“回应有害的指示或表现出偏见的行为”,他们说。
过去,创建类似人类的聊天机器人的尝试遇到了麻烦。早在2016年,微软的Tay机器人就被用户操纵,听起来像种族主义。尽管如此,据路透社报道,人工智能仍在吸引资本,2021 年将投资 130 亿美元用于开发。
世界经济论坛在其 2022 年 11 月的报告《赢得数字信任》中警告说,随着数字技术在我们的生活和社会中的作用增加,对技术的信任 “在全球范围内正在严重侵蚀”。
技术领导者必须采取行动恢复数字信任,数字信任定义为“个人期望数字技术和服务——以及提供这些技术和服务的组织——将保护所有利益相关者的利益并维护社会期望和价值观”。
下一步是什么——人工智能博主?那么,凭借先进的语言技能,像ChatGPT这样的机器人有一天能写出这样的博客吗?《卫报》认为这是很有可能的。报道机器人的发布时说:“教授,程序员和记者都可能在短短几年内失业。
英国报纸应该知道——早在 2020 年,它就发布了一篇由 ChatGPT 的前身之一、一个名为 GPT-3 的机器人撰写的博客。在这篇文章中,机器人宣布人类对人工智能没有什么可害怕的——也许对专业作家来说,寒冷的舒适感!
相关文章
猜你喜欢