> 自媒体 > AI人工智能 > ChatGPT瞎编判例,美国一资深律师未核实引用,或被罚
ChatGPT瞎编判例,美国一资深律师未核实引用,或被罚
来源:南方都市报
2023-06-21
226
管理

大语言模型正在成为人们工作生活中的得力助手,但正如不少人所担忧的那样,不谨慎使用可能带来麻烦,甚至引发法律风险。5月底,就有一名纽约律师办案时使用ChatGPT进行案例研究、撰写法律文件,结果被“坑”了。

故事的主人公名叫史蒂文·A·施瓦茨(Steven A. Schwart),他是一名在纽约州从事法律工作超过三十年的律师。2022年他经手了一起案件,原告罗伯托·马塔(Roberto Mata)起诉阿维安卡航空公司(Avianca),称因乘务人员疏忽导致他被一辆服务车撞伤了膝盖。

案件审理过程中,阿维安卡航空公司试图以诉讼时效,要求法官驳回此案。为了推进案件的进度,史蒂文提供了一份长达十页的简报,其中记录了六桩类似事故。然而,这份简报不仅没有帮助史蒂文达成目的,还给他引来了新的麻烦——因为航空公司的律师和法官无法找到简报里提及案件的任何证据。

法官因此要求史蒂夫提供其辩护词中引用案例的相关资料,他也很快给出了这些案例涉及的法院和法官、案件编号和日期等信息,甚至提交了完整的判决书。但是,阿维安卡航空公司仍旧找不到这些法庭记录,法律数据库中也遍寻不着。也因此,阿维安卡航空公司的律师指出,这些辩护词中的案例都是假的,“甚至可能有聊天机器人参与其中。”

当地时间5月24日,史蒂文在一份宣誓书中承认:在找案例时,确实咨询了 ChatGPT,同时为自己辩解道,由于之前未曾使用过ChatGPT,“因此不知道其内容可能是虚假的。”

史蒂文强调,当时他还要求ChatGPT确认案例发生。而这个乐于助人的聊天机器人给出了肯定的回答,说相关信息可以在“有信誉的法律数据库”中找到。

本案的法官在一份命令中写道,正在面临一个“前所未有”的情况:“一份法律呈文充满了虚假的司法裁定,并被虚假引用”。为此,他下令将于6月8日举行听证会,并考虑可能作出的处罚。

对轻信AI的行为,史蒂文表示“非常后悔”,称在没有核实ChatGPT提供的信息真实性的情况下,今后绝不会这样做。

采写/综合:南都记者胡耕硕

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
天泰悠然(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索