> 自媒体 > AI人工智能 > 美国律师偷懒用ChatGPT打官司,惨烈翻车!各种案例张嘴就胡编?
美国律师偷懒用ChatGPT打官司,惨烈翻车!各种案例张嘴就胡编?
来源:英国那些事儿
2023-05-30
242
管理

ChatGPT推出后,很多白领惶惶不可终日,曾经伏案多日才能完成的文字工作,AI轻轻松松就能生成。我们之前写过,44%的工作将被AI取代,其中,法律行业是“失业重灾区”。

但最近一个官司,让法律人重振精神,用AI打官司可能没那么快,至少现在还不行,

因为AI太能胡编乱造了……

几年后,马塔向曼哈顿联邦法院起诉哥伦比亚航空。

航空公司说案件已经过了追诉期,建议法官撤销此案。

马塔自然不答应,他让律师洋洋洒洒写了十页纸,引用从1999年到2019年的六起案件,用它们来论证为什么时效已过,航空事故案仍该被审理。律师援引的案件看着很规范,它们包括:瓦吉斯诉中国南方航空案,2019年;沙波诉埃及航空案,2013年;彼得森诉伊朗航空案,2012年;马丁内斯诉达美航空案,2019年;德登地产诉荷兰皇家航空案,2017年;米勒诉联合航空案,1999年。

这些案件都配有大段大段的引文,原告和被告公司之间的恩怨情仇写得清清楚楚。这份翔实的法律摘要交上去,一定能打动法官大人的心吧?

瓦吉斯的引语里提到2008年的大韩航空案件。他说这起案件是美国联邦第十一巡回上诉法院判的。但被告律师询问了第十一巡回上诉法院,对方说他们没判过此案。收到信后,卡斯特法官也懵圈了,他在案件资料库中搜寻一番,同样没有找到案件的出处。

从聊天记录里看,史华兹也曾对案件的真实性有所怀疑。S:“瓦吉斯是真实的案件吗?”ChatGPT:“是的,瓦吉斯诉中国南方航空案(第11巡回法院,2019)是真实的案件。”

S:“出处在哪里呢?”

纽约大学的法律伦理学教授史蒂芬·吉勒斯(Stephen Gillers)说,虽然此案看上去有点喜剧,但背后的问题很大。“律师界一直在讨论如何避免使用虚假的AI信息。我们不能简单地将AI给的文字粘贴到法庭文件里,我们需要自己去查。”其实,AI最擅长的就是一本正经地胡说八道,这种现象已经有个专有词汇,叫“人工智能幻觉”。

他给学生一个作文题目,要求他们用ChatGPT生成文章,然后再给文章纠错。结果发现,全班63篇文章,每篇都存在错误信息。“虚假的引文、虚假的来源、来源真实但理解错误或拼写错误。每一份作业都有这些。我都震惊了,我知道错误比例会很高,但没想到那么高。”

“学生们最大的收获是,人不能完全依赖AI。在此之前,很多学生都觉得AI永远是正确的,他们这次惊呆了,发现它很能误导人。大约一半的学生不知道AI能编造谎言。这次清醒过来后,他们对AI伪造信息的能力感到担忧和害怕。”到目前为止,AI编谎话的现象没有解决办法。AI公司能做到的只是提醒人们,AI生产的内容并不完全可信。一想到这点,全球白领应该能缓口气,人类虽然也会犯错,但至少有自知之明,知道哪里有问题。AI这个理直气壮胡说八道的架势,还是有点没谱啊……

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
我是歌王(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索