编辑:LRS
【新智元导读】从微软手里抢客户,OpenAI官方定制版ChatGPT已在路上。ChatGPT发布仅半年,就一跃成为世界上最著名的互联网产品之一,5天突破百万用户,目前用户总量已超1亿。
不过ChatGPT基础版实行免费政策,所以用户数越多,其背后的开发公司OpenAI亏损也越多。
协议中还规定了微软可以获得OpenAI未来利润中的大部分(如果OpenAI有能力盈利的话)。
换句话说,两家公司都有能力推出基于ChatGPT的个性化AI助手。
数据隐私问题
目前的情况是,用户通过网络或移动应用来访问ChatGPT,所有计算都在云端进行,主要由微软的Azure提供算力服务,底层包括数千个专用的英伟达服务器芯片。
但是,如果OpenAI想要实现更个性化的方式运行,或是像苹果Siri助手一样快速响应的话,可能需要把模型存储在用户的设备上。
一些人工智能从业者表示,打造一个可靠的个人助理还有很多工作要做,还需要大量的研发测试才能保证在降低AI模型尺寸的情况下,仍然保持较高的生成质量。
除此之外,OpenAI还需要获得用户的许可,以便在个人数据上训练模型,可用数据包括个人的电子邮件、联系人以及存储在Word和谷歌文档等商业应用程序中的信息。
微软、谷歌和其他商业应用程序制造商通常也会要求客户共享部分隐私数据来改善模型和使用体验,所以理论上OpenAI也可以实现个性化模型训练。
尚不明朗的未来在ChatGPT发展之际,开源社区内的大型语言模型也在不断扩张,也许不用等到OpenAI出手,每个开发人员都可以根据自己的需求创建个性化AI辅助工具。
2020年成立的一家初创公司Personal AI就是例子,他们目前已经募集了780万美元的资金,可以根据个人数据在开源模型上进行训练,获得的专有模型也非常小,可以在笔记本电脑或手机上运行。
Personal AI公司希望该模型可以足够了解一个人的日常事务,可以模仿或代替用户参加会议,或是自动起草对收到的工作相关或个人信息的回复。
Personal AI的首席执行官Suman Kanuganti表示,该公司的软件目前已经足够智能来辅助用户回应关于会议的想法,具体实现方法就是根据用户在会议期间做的笔记进行摘要。
Kanuganti认为,他们的产品处在个性化计算和工作相关计算之间的模糊地带。
目前已经有超过40000人在工作中使用该产品,不过市场对这种个性化助手的需求有多大还有待观察,数据信任问题仍然是未知的。
一些公司可能更倾向于使用开源模型,因为可以在自己的服务器上运行,可以规避向OpenAI泄露敏感数据的风险。
OpenAI的模型目前还是通用的, 也就意味着输入到模型的数据都将成为其知识库的一部分;如果OpenAI为客户开发个性化版本,可能会减轻对数据泄露的担忧,因为这些数据不会输入到通用模型中。
成本 可靠性难题
加州大学伯克利分校人工智能专业教授、数据库软件公司Databricks的联合创始人Ion Stoica认为,可靠的个性化助手还有许多技术难关没有攻克,可能还需要几年时间。
目前已经有一些OpenAI的客户选择让ChatGPT以更个性化的方式运行,不过在每次使用前都需要在提示词中提供大量背景信息。
比如Salesforce预览了OpenAI驱动的销售软件,该软件可以起草给客户的电子邮件。但 它依赖于在用户每次要求聊天机器人起草电子邮件时,在提示中包含用户客户及其产品的 名称。
类似地,微软的OpenAI驱动的365 Copilot可以阅读整个Word文档或电子邮件线 程,以总结文本或将其转换为PowerPoint演示文稿。
Stoica表示,提示工程(prompt engineering)的解决方案在实际使用时可能会很「脆弱」,也就意味着模型的反馈结果会因为用户提供给ChatGPT的信息发生微小变化而有很大差异。
以这种方式运行AI模型的成本也更高,因为它必须先理解这些背景信息后才能开始工作。
参考资料:
相关文章
猜你喜欢