2024年10月,印第安纳州律师拉斐尔·拉米雷斯(Rafael Ramirez)在代表HooserVac LLC针对其退休基金提起诉讼时,在三份独立简报中引用了案例引文。然而,法院无法找到这些案例,因为它们是由ChatGPT捏造的。

12月,印第安纳州南区美国地方法院法官马克·J·丁斯摩尔(Mark J. Dinsmore)命令拉米雷斯出庭,说明他为何不应因这些错误受到处罚。

「在引文中搞混数字、写错日期或拼错当事人姓名都可以归咎于疏失,」法官写道。「但引用一个根本不存在的案例则完全是另一回事。拉米雷斯先生未解释为何一份完全虚构的案例引用会出现在他的案情摘要中。最合理的解释是,他使用了人工智慧生成工具协助起草案情摘要,却未在提交前检查引用的真实性。」

拉米雷斯承认自己使用了生成式人工智慧,但坚称他未察觉这些案例并非真实,因为他不知道人工智慧可能生成虚构案例与引用。他还承认未遵守《联邦民事诉讼规则》第11条,该规则要求提出的索赔必须基于现有证据,或极有可能透过进一步调查或发现找到支持证据。此规则旨在鼓励律师在提起诉讼前进行尽职调查。

「我发誓我认为这些都是真实案例,法官大人。ChatGPT向我保证它们确实是真的。」拉米雷斯表示,他后来参加了有关法律中使用人工智慧的法律教育课程,并继续使用AI工具。但法官指出,他「未能遵守最基本的要求」,使其行为「特别应受到制裁」。丁斯摩尔补充,由于拉米雷斯未能提供称职的辩护,且多次向法庭做出虚假陈述,他已被提交给首席法官,以採取进一步纪律处分。

这并非律师因依赖人工智慧出错的首例。2023年6月,两名律师及其律师事务所因引用ChatGPT生成的虚假法律研究,被曼哈顿一名地区法官罚款5,000美元。

今年1月,怀俄明州一名律师提交了9起案例,以支持针对沃尔玛与Jetson Electric Bikes的诉讼,该诉讼据称由悬浮滑板引发火灾。其中8起案例是ChatGPT制造的幻觉。