文 | 周鑫雨
编辑 | 苏建勋
北美时间2023年4月25日,一度陷入安全争议风波的OpenAI给用户和业界投喂了一颗定心丸:推出新的ChatGPT数据管理方法,并在未来几个月内推出遵循OpenAI API数据使用政策的企业版ChatGPT Business。
2023年3月29日,一封名为《Pause Giant AI Experiments: An Open Letter(暂停巨型AI实验:一封公开信)》的公开信又将孕育出ChatGPT和GPT-4的OpenAI推向AI安全隐患的风口浪尖。
这份联名信呼吁:所有AI实验室立即暂停训练比GPT-4更强大的 AI 系统,为期至少6个月。截至发稿前,已有近3万人签下了自己的名字。
4月13日,OpenAI创始人Sam Altman在麻省理工学院视频电话会中,对联名信做出了回应。在赞同“随着它(AI)的能力变得越来越强,安全标准必须提高”的同时,他也指出联名信仍未解释的关键问题:“这封联名信遗漏了大部分有关我们需要暂停的技术细节。”
而此次OpenAI在数据安全上的两个大动作,则是用行动给予了回应。
新的ChatGPT数据管理方法显示,从北美时间4月25日起,所有用户都能使用ChatGPT新增的关闭聊天记录功能。
当聊天记录功能关闭时,用户在ChatGPT上进行的对话不会被用于模型训练,也不会出现在用户的使用历史记录中。相对地,除却监控到滥用情况时的审核,OpenAI会把禁用记录后的新对话保留30天,然后永久删除。
在未来几个月即将上线的企业版ChatGPT Business上,OpenAI许诺会严格遵守API数据使用政策。值得注意的是,这一数据政策进针对API消费者,不适用于ChatGPT或者DALL·E等模型的非API消费者。
所谓的“API数据”指的是API在处理用户通过文件端点提交的训练数据等过程中产生的数据。根据API数据使用政策,OpenAI在默认情况下不会使用API数据来训练OpenAI自己的模型或者改进产品服务。用户提交的数据仅用于用户模型的微调。为了监控模型滥用和误用等情况,OpenAI会将API数据保留30天。
与此同时,用户也具有共享数据的权利,被允许共享的数据将用于模型的迭代。若是用户没有选择关闭数据共享,在2023年3月1日前的API数据则存在已经被用于模型迭代的可能。
“它(GPT-4)也许不是功能最强大的模型,但肯定是目前未知最安全、最对齐的模型。”面对联名信,OpenAI创始人Sam Altman公开表态,“随着模型的能力越来越强,与之对应的安全措施确实需要增加。”
延伸阅读:
暂缓大模型:担忧的科学家,失控的AI | Future
36kr制图
相关文章
猜你喜欢