> 自媒体 > AI人工智能 > 律师用ChatGPT打官司,结果被骗引用不存在的案例
律师用ChatGPT打官司,结果被骗引用不存在的案例
来源:IT之家
2023-05-29
194
管理

IT之家 5 月 28 日消息,据纽约时报报道,近日,一名律师在一起法庭案件中,依赖聊天机器人 ChatGPT 进行法律文献检索(legal research),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。

该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。

凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。

原告律师之一史蒂文・施瓦茨承认自己使用了 ChatGPT 来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”

提交给法院的文件附有施瓦茨和 ChatGPT 之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真实。ChatGPT 回答说是真实的,并表示该案例可以在法律参考数据库如 LexisNexis 和 Westlaw 中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT 捏造了 6 个不存在的案例。

鉴于这一事件,涉案的两名律师,来自 Levidow, Levidow & Oberman 律师事务所的彼得・洛杜卡和史蒂文・施瓦茨将于 6 月 8 日出席一个纪律听证会,解释他们的行为。IT之家注意到,这一事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
赶海的老阿姨(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索