> 自媒体 > AI人工智能 > “用ChatGPT编假新闻牟利案”带来哪些警示 |新京报专栏
“用ChatGPT编假新闻牟利案”带来哪些警示 |新京报专栏
来源:新京报
2023-05-11
216
管理

资料图。图/新华社

如何让“回答”更符合法规伦理

现阶段针对上述问题,科技所能拿出的解决方案是继续通过更大规模、更具精准度的训练来提高大模型的信息质量。例如,Open AI依靠人类AI训练师和用户反馈来筛选、过滤虚假或不当数据,训练ChatGPT更明智地识别命令者的意图,并给出符合法规伦理的回答。

但在人工智能大规模进入社会大生产各环节的当下,这一技术手段或许已经难以真正解决问题。一方面,当人工智能过早将整个人类社会的信息生产都变为其训练模型的试验场时,虚假信息的问题就已经彻底蔓延开来。

另一方面,面对高度复杂的道德伦理、法律法规以及信息真伪鉴别的难题,技术既难以穷尽,也难以在面对诸多道德争议问题时,做符合人情与法规的判断,因此,也更难以实现自我迭代与修复。

当前在执法层面,针对使用人工智能制造虚假信息的行为已经展开,但仍然存在诸多难以判定的“死角”。例如,如果该虚假信息并未立即产生有破坏性的结果,或者,网民并未利用该信息牟利,那么,司法手段对这些模糊地带就显得无能为力。

这需要更多的公开讨论并设定相关规范。例如,在技术层面,在投入大规模应用的大模型中,可以考虑如何设定必要的红线与信息过滤、警示机制。

而在应用上,也应对大模型的使用场景进行有步骤地开放,而不是任其一股脑进入全部领域。只有在完善了监管规则及验证了使用结果的情况下,才能进一步放开应用。

考虑到人工智能的进化速度仍在不断加快,这起普通的“虚假信息案”,更是对加快规范与立法的催促与警示。

撰稿/马尔文(媒体人)

编辑/迟道华

校对/刘越

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
素素鴉(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索