比如在GPT-2基础上的著名文字冒险游戏AI Dungeon,现在用GPT-3的API接口,就能更轻松的实现。AI可以给出很多D&D原始资料和冒险经历,并在此基础上根据玩家的输入为玩家改进旅程。实质上这是在本地运行模型的一个版本,以前这需要用到一些笨拙的方法来完成,而现在只需通过API提交输入。
基本上,这是一种访问GPT-3广泛的语言理解和生成功能的更简单的方法,不过目前的呈现只是简单的文本输入和输出。
OpenAI在博客中回答了用户最关心的问题,为什么OpenAI选择发布API而不是开源模型?
OpenAI表示这样做有三个主要原因。
首先,将技术商业化有助于为正在进行的AI研究、安全和政策工作付费。
其次,API的许多基础模型非常庞大,需要大量的专业知识来进行开发和部署,并且运行起来非常昂贵。这使得除了大公司以外的任何人都很难从基础技术中受益。
第三,API模型可以更轻松地应对技术滥用。由于很难预测我们模型的下游用例,因此通过API释放它们并随着时间的推移扩展访问范围,本来就更安全,而不是发布一个开源模型,因为如果发现该模型存在有害的应用程序,则该模型无法进行访问调整。
“我们希望API能够大大降低生产有益的AI驱动产品的障碍,从而创造出今天难以想象的工具和服务。”
到目前为止,OpenAI已经与十几家公司合作,在更广泛地提供API之前对其进行测试。聊天机器人、教学辅助工具、法律研究——这类东西的应用永无止境,因为语言被用来定义和记录我们所做的几乎所有事情。然而,要想找到像这样的人工智能代理真正有用的地方,需要进行一些实验。
相关报道:
相关文章
猜你喜欢