2023年5月,美国律师史蒂文·施瓦茨在联邦航空诉讼案(Mata v. Avianca)中向法院提交了一份引用了6个判决先例的法律简报。法官发现这些案例全部不存在——案件名称、日期、引用内容均为AI幻觉产物。律师承认使用ChatGPT检索法律案例,但没有核实真实性,因为'ChatGPT保证了它们的真实性'。法官要求每位相关律师出庭解释,最终对律所处以5000美元罚款,并要求通知所有被引用的虚假案件当事人。该案件迅速成为全球新闻头条,触发各大律所紧急出台AI使用限制政策。
2023年5月,美国律师史蒂文·施瓦茨在联邦航空诉讼案(Mata v. Avianca)中向法院提交了一份引用了6个判决先例的法律简报。法官发现这些案例全部不存在——案件名称、日期、引用内容均为AI幻觉产物。律师承认使用ChatGPT检索法律案例,但没有核实真实性,因为'ChatGPT保证了它们的真实性'。法官要求每位相关律师出庭解释,最终对律所处以5000美元罚款,并要求通知所有被引用的虚假案件当事人。该案件迅速成为全球新闻头条,触发各大律所紧急出台AI使用限制政策。
Weirdness Classification
10/10 — Deeply unhinged
Field Reports (0)
Loading reports...
Sign in to file your field report.
Know something weirder?
Submit your own AI incident report to the public record.