人工智能领域最近热闹非凡。几家领先的人工智能公司都发布了重量级产品。谷歌表示,它将允许开发者使用其人工智能语言模型,人工智能初创公司 Anthropic 发布了其人工智能助手 Claude。最为重磅的莫属 OpenAI 的最新多模态大型语言模型 GPT-4。
与可供所有免费体验的 ChatGPT 不同,OpenAI 最新推出的 GPT-4 目前只对部分开发者开放。这项技术还处于起步阶段,它需要一段时间才能融入新的产品和服务。尽管如此,人们已经在通过各种方式测试它的能力。以下是我找出的一些最有趣的测试。
提升生产力
大型科技公司真的希望你在工作中使用人工智能。这可能是大多数人体验新技术的方式。微软希望你在其 Office 套件中使用 GPT-4 来总结文档,或者让它帮你完成 PowerPoint 演示——正如我们在 1 月份预测的那样,这似乎已经是很久以前了。
无独有偶,谷歌也宣布将在其办公产品中嵌入类似的人工智能技术,包括谷歌Docs 和 Gmail。人工智能将帮助人们起草电子邮件,校对文本,并为演示文稿生成图像。
写书
里德·霍夫曼(Reid Hoffma)是领英的联合创始人和执行董事长,也是 OpenAI 的早期投资者,他说他使用 GPT-4 帮助撰写了一本名为《即兴创作:通过人工智能放大我们的人性》的书。霍夫曼认为这是 GPT-4 出版的第一本书。不过它的前身 ChatGPT 曾被用来创作大量的书籍。
霍夫曼在 2022 年夏天接触到了这个系统,此后他一直在写下他对人工智能模型在教育、艺术、司法系统、新闻等领域的不同应用方式的看法。在这本书中,他复制粘贴了他与系统互动的摘录,概述了他对人工智能未来的愿景,使用 GPT-4 作为写作助手来获得新的想法,并分析其回复。
最后的结论,GPT-4 是人工智能社区的一个很酷的新玩具。不可否认,这是一种强大的辅助技术,可以帮助我们提出想法,压缩文本,解释概念,并自动化日常任务。这是一个受欢迎的发展,尤其是对白领来说。
然而,值得注意的是,OpenAI 自己也在敦促人们谨慎使用该模型,并警告说它会带来一些安全风险,包括侵犯隐私,欺骗人们认为它是人类,以及产生有害内容。它也有可能被用于我们从未见过的其他危险行为。
所以,无论如何,我们可以对它感到兴奋,但不能被炒作蒙蔽双眼。目前,没有什么能阻止人们使用这些强大的新模型来做有害的事情,如果模型就这样被滥用,我们也没有什么办法让模型承担责任。
支持:Ren
原文:
https://www.technologyreview.com/2023/03/21/1070102/how-ai-experts-are-using-gpt-4/
相关文章
猜你喜欢