Fragen?
Rat & Tat

ChatGPT: Die Nummer 1 im Erfinden von nicht existenten Gerichtsurteilen (29.05.2023)

Man kann als Rechtsanwalt eine Schadenersatzklage auf ganz verschiedene Weise verfassen: Man beschreibt den Sachverhalt, erspart sich lange rechtliche Erörterungen, verweist auf „jeglichen erdenklichen Rechtsgrund“ und lässt das Gericht seine Arbeit machen. Man kann aber auch daran zweifeln, dass das Gericht genug Zeit hat, sich in die rechtlichen Tiefen der Sache zu versenken (oder sich die Zeit nimmt oder die rechtlichen Tiefen überhaupt erkennt) und stattdessen dem Gericht das Ergebnis der eigenen Judikatur- und Literaturrecherche, unterfüttert mit entsprechenden Zitaten, anbieten. Nun kann es allerdings sein, dass der Rechtsanwalt selbst nicht soviel Zeit hat, sich in diese Tiefen zu begeben oder schlicht dazu nicht in der Lage ist. Dafür gibt es nun ChatGPT. Diese App weiß bekanntlich alles. Kann gut gehen, muss aber nicht, wie Steven Schwartz, Rechtsanwalt bei Levidow, Levidow & Oberman, New York, erfahren musste.

 

Sein Klient Roberto Mata war bei einem Flug mit Avianca durch, wie er behauptete, die Nachlässigkeit eines Airline-Mitarbeiters von einem Servierwagen verletzt worden. Schwartz klagte die Fluglinie und unterfütterte seine Klage mit zahlreichen leading cases. Blöd nur, dass der Richter erkannte, dass zumindest sechs dieser angeblichen Präzedenzfälle offenbar „bogus judicial decisions with bogus quotes and bogus internal citations” waren, also schlicht und einfach fingierte Zitate. Seine „order to show cause“, also die Aufforderung an den Klagevertreter, seine Karten auf den Tisch zu legen, leitete Richter Castel damit ein, dass das Gericht sich einem „unprecedented circumstance“ gegenüber sehe: Der Kläger hatte den Fall Varghese v China South Airlines Ltd nicht nur zitiert, sondern Auszüge aus dieser Entscheidung vorgelegt, darin wiederum fanden sich Zitate mehrerer anderer Entscheidungen samt Fundstellen. Tatsächlich existierten weder der Varghese-Fall noch diese Entscheidungen, und an den zitierten Fundstellen fanden sich gänzlich andere Entscheidungen als vom Kläger behauptet. Die Federal Rules of Civil Procedure sehen für derartiges Schmähführen eine Art Mutwillensstrafe vor, und der U. S. Code eine persönliche Haftung des Anwalts für die dadurch zusätzlich entstehenden Kosten – und all das drohte Richter Castel mit seiner Order vom 4. Mai 2023 dem Anwalt an.

 

Der Anwalt (der im Southern District of NY nicht zugelassen ist und daher den Associate Peter Loduca für die Gerichtstermine ins Gefecht geschickt hatte) rechtfertigte sich in seinem schriftlichen Affidavit damit, dass er ChatGPT bis dahin noch nie für rechtliche Recherchen verwendet hatte und daher „was unaware of the possibility that its content could be false.” Na, jetzt weiß er’s. Und reuig erklärte der Sünder, dass er „will never do so in the future without absolute verification of its authenticity.” Am 8. Juni wird er das dem Gericht mündlich vortragen und sich dann die Rechtsfolgen seiner so kläglich gescheiterten Recherche anhören müssen.

 

Und was lernen wir daraus? Nicht nur, dass man in einem Haftungsfall gegen eine Fluglinie Varghese v China South Airlines Ltd besser nicht zitiert (was wir bisher nicht wussten), sondern dass man für alles, was einem die KI einflüstert, die persönliche Verantwortung trägt (was wir uns eh schon gedacht haben). Daher gilt nicht nur für Journalisten, sondern auch für die Verfasser juristischer Texte die gute alte Regel aus der vordigitalen Zeit: Check, re-check, double-check.