Wenn Künstliche Intelligenz Urteile erfindet, die nie existierten: Das australische Bundesgericht hat Anwälten eine formelle Warnung ausgesprochen und den sorglosen Umgang mit KI-generierten Schriftsätzen als „inakzeptabel” eingestuft. Die Entscheidung hat auch für den deutschen Rechtsmarkt unmittelbare Konsequenzen.
Australiens Bundesgericht warnt Anwälte vor unkritischem Einsatz von KI-Tools
Falsche Zitate, echte Konsequenzen
Das australische Bundesgericht reagiert auf eine Serie von Vorfällen, bei denen Anwälte Schriftsätze eingereicht hatten, die mithilfe von Large Language Models erstellt worden waren. Diese Dokumente enthielten in mehreren Fällen sogenannte „Halluzinationen”: Zitate aus Urteilen, die so nie existiert haben, oder Fundstellen, die sich bei Nachprüfung als vollständig erfunden erwiesen.
„Der Einsatz von KI entbinde nicht von der Pflicht zur sorgfältigen Prüfung jedes einzelnen Dokuments.” – Australisches Bundesgericht
Solche Fehler können nicht nur den jeweiligen Fall gefährden, sondern auch das Vertrauen in die Integrität des Rechtssystems untergraben. Das Bundesgericht stellte klar, dass Anwälte die volle berufsrechtliche Verantwortung für alle eingereichten Unterlagen tragen – unabhängig davon, welche technischen Hilfsmittel bei deren Erstellung verwendet wurden.
Kein Verbot, aber klare Grenzen
Ausdrücklich verboten wird der Einsatz von KI-Tools nicht. Das Gericht erkennt an, dass entsprechende Technologien bei der Rechercheunterstützung und Strukturierung von Argumenten nützlich sein können. Die Warnung richtet sich jedoch gegen eine unreflektierte Übernahme von KI-Ausgaben ohne menschliche Überprüfung.
Anwälte seien verpflichtet, sämtliche Zitate, Rechtsnormen und Fallverweise eigenständig zu verifizieren, bevor sie ein Dokument beim Gericht einreichen. Australien reiht sich damit in eine wachsende Zahl von Jurisdiktionen ein, die konkrete Leitlinien für den Einsatz generativer KI in juristischen Verfahren entwickeln. In den USA haben verschiedene Bundesgerichte bereits verbindliche Offenlegungspflichten eingeführt, wonach Anwälte angeben müssen, ob und in welchem Umfang KI-Tools bei der Dokumenterstellung beteiligt waren.
Strukturelles Problem mit weitreichenden Folgen
Das eigentliche Problem liegt in der Funktionsweise aktueller Large Language Models: Sie sind darauf ausgelegt, plausibel klingende Texte zu erzeugen – nicht notwendigerweise faktisch korrekte.
Im juristischen Kontext, wo präzise Quellenangaben und exakte Formulierungen entscheidend sind, kann diese Eigenschaft erheblichen Schaden anrichten.
Die Überzeugungskraft des Outputs täuscht dabei häufig über dessen inhaltliche Unzuverlässigkeit hinweg. Für Kanzleien entsteht dadurch ein ernstes Qualitätssicherungsproblem: Der vermeintliche Effizienzgewinn durch KI-Unterstützung muss durch entsprechend aufwendige Prüfprozesse abgesichert werden – was den Nutzen in zeitkritischen Kontexten erheblich relativieren kann.
Einordnung für deutsche Unternehmen und Kanzleien
Die australische Entwicklung ist für den deutschen Rechtsmarkt unmittelbar relevant. Auch hierzulande setzen Anwaltskanzleien und Rechtsabteilungen zunehmend auf KI-gestützte Tools zur Vertragsprüfung, Recherche und Schriftsatzerstellung.
Die Bundesrechtsanwaltskammer hat zwar noch keine vergleichbar explizite Warnung ausgesprochen, doch die berufsrechtlichen Sorgfaltspflichten nach der BRAO lassen wenig Interpretationsspielraum: Die Verantwortung für eingereichte Dokumente liegt beim unterzeichnenden Anwalt.
Unternehmen, die externe Kanzleien mandatieren oder interne Legal-Teams mit KI-Tools ausstatten, sollten klare Prozesse zur Verifikation KI-generierter Inhalte etablieren und dokumentieren – nicht zuletzt mit Blick auf den EU AI Act, der auch für Hochrisikoanwendungen im Rechtsbereich konkrete Anforderungen stellen wird.
Quelle: The Guardian – Australia Federal Court Warning on AI