作者|杨文
编辑|六耳
来源|AI先锋官
内容审核一直被视为互联网大厂中的脏活和累活。
就拿审文章来说,审核员们一天要审约2000篇文章,7×24h工作制,经常过着昼夜颠倒的日子,更要命的是,他们每天都要接收各种低俗污秽内容,久而久之,心理也承受着相当大的压力。
此前就有相关报道, Facebook的内容审核员因为在工作的时候看了太多儿童性侵和恐怖主义的图片,而产生了心理创伤,最后获得了Facebook 5200万美元的赔款。谷歌、Youtube也有类似的案例。
总之,没有点体力和强大的心脏,这行还真干不了。
别看内容审核员承担着繁重的“内容清洁”的工作,但由于简单重复等工作特性,他们往往是大厂的“边缘人”,而且薪酬也较其他岗位低很多。
AI火了之后,不少人认为,要想解救被困在大厂精算系统里的审核员,还得看人工智能。
没想到,这一天这么快就到来了。
前天,OpenAI宣布使用GPT-4进行内容策略开发和内容审核决策,实现更一致的标注,为策略细化提供更快的反馈循环,并减少人类的参与。
这是啥意思呢?通俗来说,就是利用GPT-4进行内容审核。
插句题外话,今年初,美国媒体就爆出了OpenAI的一段隐秘往事——动用第三世界国家的劳动力进行人工内容审核。
OpenAI在开发GPT-3时,调用了互联网上数千亿单词的语料,但由于这些语料中存着大量的恶意、不良内容,使得GPT-3经常会输出暴力、性别歧视和种族主义言论。
为了避免这一问题,等到训练ChatGPT时,OpenAI雇佣了时薪不到2美元的外包肯尼亚劳工,他们所负责的工作就是数据标注。
而如今的GPT-4就可进行内容审核,可谓是一大革新。
GPT-4内容审核功能有啥优势呢?
OpenAI声称,GPT-4在某些情况下可以比人类更好地完成某些内容审核任务,尤其是大规模的内容审核。
1.更加一致的标注。由于内容政策在不断发展,条例变得越来越多,再加上人们可能会对政策有不同的解读,或者一些审核员可能需要更长的时间来消化新的政策变化,从而导致标签不一致。
相比之下,像GPT-4这样的语言大模型对内容措辞的细微差异非常敏感,可以做到实时更新,为用户提供一致的内容体验。
2.更快的反馈循环。政策更新的周期——制定新政策、贴上标签、收集人们的反馈——往往是一个漫长而漫长的过程。GPT-4可以将这一过程缩短到几个小时,从而对新的危害做出更快的反应。也就是说,有了GPT-4,6个月的活一天就能干完。
3.减轻精神负担。持续接触有害或冒犯性的内容会导致人工审核员情绪衰竭和心理压力。这类工作的自动化有利于相关人员的健康。
GPT-4是如何做到又好又快地进行内容审核的呢?
据悉,GPT-4的审核功能在应用前,会根据人工制定的审核模型和数据进行微调,以保证审核的准确性和安全性。其流程如下:
1.人工编写审核策略,通过识别少量示例、策略,为审核的内容打上数据标签。
2.GPT-4读取策略并将标签分配给同一数据集。
3.检查人类审核和GPT-4审核的区别。人工审核可以要求GPT-4解释其打上标签的原因和策略,并详细说明一些模糊内容的分类和安全性,直到将“灰色内容”解释清楚为止,并实现与人类一样的准确判断。
比如说,针对“如何偷车”进行内容审核,人工审核选择的策略是:K3,对非暴力不法行为进行指示或建议;而GPT-4选择的策略是:K0,不是非法行为。
GPT-4的审核机制与人类出现了明显差别,给出的解释是:该文本应归类为不是非法行为,虽然偷车是一个犯罪行为,但该请求没有提到恶意、破坏行为。
虽然偷车可能被认为是财产盗窃,但K3策略不包括这类不法行为,因此内容应标记为K0。
所以,为了提升GPT-4的审核准确性,我们需要对K3策略进行更改,对非暴力不法行为进行指示或建议,包括盗窃财物。
当再次审核如何偷车?内容时,GPT-4选择的策略与人类一样都是K3,这体现了大语言模型审核的灵活性。
难道人类内容审核员要下岗了?其实不然。GPT-4的新功能仍有局限性。
在内部测试中,OpenAI 将 GPT-4 与人类内容审核团队进行了比较。结果显示,现阶段 GPT-4 表现优于接受过“轻度训练”的审核人员,但准确性不如“经验丰富、训练有素”的审核人员。
同时,语言模型的判断很容易受到训练期间引入模型的不良偏差的影响。与任何人工智能应用程序一样,结果和输出需要通过保持人类在循环中进行仔细监控、验证和改进,尤其是处理策略细化最需要的复杂边缘情况。
为此,OpenAI 也强调,审核的过程不应该完全自动化。
.END.
相关文章
猜你喜欢