克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
学校的图书管理员,已经开始用ChatGPT来筛选带色情内容的书籍了。
根据一项新规定,美国爱荷华州的学校需要下架图书馆中包含性行为描述的书籍,但“阅读每本书并按新要求筛选根本不可行”。
在ChatGPT的帮助下,一个学区终于赶在开学前筛选出19本符合条件的书籍。
高效自动化内容审核这项新的功能不仅在于提高效率和减轻人类工作量,还解决了人工审核中尺度不一致问题。
最重要的是,它能够避免有害内容对审核人员造成的身心伤害。
一家科技媒体的编辑Reed Albergotti做出了这样的表示:
使用大型语言模型来进行内容审查是向前迈出的一步。
这并不是因为它有多完美,而是因为它的尺度会更加一致,并且不易受到人类情感和文化差异的影响。
工作流程上,重点的环节是用户政策的设计,这部分是由人工主导的。
之后GPT-4会使用一些示例进行准确性检验和优化。
根据GPT-4的预测微调出小型筛选器,就可以对内容进行批量审查了。
OpenAI发言人也透露,已经有客户在用GPT-4进行内容审查,但并未给出具体名单。
此外,OpenAI正在研究将这项功能从文本审核扩展到图像、视频的鉴别 。
那么,这个功能究竟好不好用呢?
OpenAI:有信心做得很好OpenAI总裁兼联合创始人Greg Brockman表示,这项功能「非常可靠」。
同时,Brockman还展示出了测试结果作为依据。
在色情、暴力等多个类型的有害内容判别上,GPT-4的表现超过了经少量训练的人类。
不过和经验丰富的审核人员相比,的确还有一些差距。
但OpenAI安全和信任部门原主管Dave Willner对著名科技媒体人Casey Newton表示,「这种情况不会持续太久」。
也有负面观点认为,总会有人想方设法钻AI规则的漏洞。
毕竟,大模型越狱事件出现了已经不只是一次两次了。
美联社的Frank Bajak更是表示,ChatGPT这样的大型语言模型「非常难以控制」。
对此,Weng也坦言,的确没办法做到100%没有漏洞,但有信心会很好。
我们无法从一开始就构建一个100%「防弹」的系统。
人们正在帮我们揪出模型中的错误,但我非常有信心它能做得很好。
One More ThingGPT-4内容审核功能的实用性暂且按下不表,OpenAI的安全工作本身也存在很多争议。
据Time杂志消息,OpenAI此前在肯尼亚聘请数据标注人员标注有害内容的过程中,有参与者表示其中的暴力、酷刑等有害内容给他们造成了心理阴影。
新方法出台后,人类仍需要参与到内容审查工作当中,但这样的情况可能会大大减少。
参考链接:[1]https://openai.com/blog/using-gpt-4-for-content-moderation[2]https://www.popsci.com/technology/iowa-chatgpt-book-ban/[3]https://www.semafor.com/article/08/15/2023/can-chatgpt-become-a-content-moderator[4]https://twitter.com/gdb/status/1691500101187805185[5]https://twitter.com/caseynewton/status/1691602324366786575
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
相关文章
猜你喜欢