Wichtige Konzepte der juristischen Arbeit mit KI
§ 1 Halluzinationen¶
KI-Anwendungen wie Claude ersetzen das eigenständige Suchen, Lesen und Analysieren von Gerichtsentscheiden und Erlassen nicht, sondern ergänzen diese Tätigkeiten — ähnlich wie eine Hilfsperson. Wie solche sind auch KI-Tools sorgfältig auszuwählen, klar zu instruieren und ihr Output stets zu überprüfen. Denn: KI-Tools können halluzinieren. Mitunter deuten sie — wie übrigens auch Menschen — Gerichtsentscheide und Erlasse um, belegen korrekte Aussagen mit falschen Quellen, verknüpfen passende Rechtsgebiete mit unpassenden Entscheiden, geben einschlägige Entscheide selektiv wieder oder stützen sich auf überholte Rechtsprechung. Immer wieder erfinden sie sogar Erlasse oder Gerichtsurteile, die es nicht gibt. Gewisse Tools reduzieren solche Fehlerrisiken mehr als andere, weil sie auf Gerichts- oder Erlassdatenbanken zugreifen, statt die Antworten bloss aus den Trainingsdaten oder einer unspezifischen Websuche zu generieren. Reduktion darf dabei auf keinen Fall mit der Eliminierung von Halluzination verwechselt werden. Denn: Nach dem derzeitigen Stand der Technik ist es nicht möglich, unrichtige Aussagen von einem KI-Tool gänzlich auszuschliessen. Die Kontrolle von Aussagen und Quellen bleibt daher stets Pflicht!1
§ 2 Verification-Value Paradox¶
Der Rechtswissenschaftler Joshua Yuvaraj hat den Zusammenhang zwischen Effizienzgewinn und Kontrollaufwand beim Einsatz von KI in der juristischen Arbeit auf eine einprägsame Formel gebracht: Net Value = Efficiency Gain − Verification Cost.2 Die Kernthese lautet: Die Effizienzgewinne durch KI werden regelmässig durch den notwendigen Kontrollaufwand relativiert oder sogar kannibalisiert. Nach dem Verification-Value Paradox ist technologische Beschleunigung nicht automatisch effizient. Wer einen Entscheid von der KI zusammenfassen lässt und anschliessend jede Aussage anhand des Originals überprüfen muss, hat unter Umständen nicht weniger, sondern anders geartete Arbeit. Dieses Paradox ist kein prinzipielles Argument gegen den Einsatz von KI, sondern eines für die Entwicklung von Verfahren und Werkzeugen, die die Verifikation von KI-generierten Ergebnissen effizienter und transparenter machen. Die Anbindung von KI-Tools an juristische Datenbanken wie opencaselaw.ch (dazu Kapitel V) ist ein Beispiel dafür. Gerade das Ermöglichen und Erleichtern der Quellenverifikation ist somit nicht bloss eine Vorsichtsmassnahme, sondern der eigentliche Kern kompetenter KI-Nutzung. Tools wie der «Claude-Skill»,3 der Originalquellen verlinkt, können dabei eine nützliche Hilfe sein.
§ 3 Prompting¶
Ein Prompt ist eine Eingabeanweisung an ein KI-System. Der Prompt sagt dem LLM, was es tun oder generieren soll. Die Formulierung eines Prompts beeinflusst die Qualität, Genauigkeit und Relevanz der Antwort. Gute Prompts führen zu besseren Ergebnissen. Allerdings ist die Bedeutung ausgefeilter Prompt-Techniken geringer als noch vor einem Jahr. Aktuelle Modelle verstehen regelmässig bereits vage, holzschnittartige Anweisungen und solche voller Tippfehler.4 Es kann hilfreich sein, den Prompt mündlich über die Spracheingabe einzugeben und damit nach unserer Erfahrung in der Regel mehr Informationen mitzugeben, als wenn man den Prompt tippen muss. Es ist auch sehr hilfreich, das KI-Tool anschliessend zu bitten, den Prompt selbst zu verbessern (bei gewissen Legal Tech Tools, wie z. B. Harvey.ai, gibt es dafür ein spezifisches Feature «Improve Prompt»). Dieser iterative Ansatz führt in der täglichen praktischen Arbeit oft schneller zu guten Ergebnissen als das aufwändige Formulieren eines vermeintlich perfekten Prompts. Und auch hier gilt: Übung macht den Meister. Sie werden mit der Zeit merken, mit welchen Promptinformationen Sie zum gewünschten Ergebnis kommen.
§ 4 Kontext ist König¶
Der grösste Hebel beim Prompting liegt heute unseres Erachtens weniger in ausgefeilten Prompt-Techniken als darin, der KI den richtigen Kontext mitzugeben. Je mehr relevante Informationen der KI gegeben wird, desto besser antwortet sie — unabhängig davon, wie «schön» der Prompt formuliert ist. Statt also lediglich zu schreiben «Fasse mir das Bundesgerichtsurteil 2C_166/2009 zusammen», ist der Kontext juristischen Arbeitens mit KI im konkreten Zusammenhang klarzustellen. Unseres Erachtens hilft es sich vorab die folgenden Fragen zu stellen und die Antworten der KI im Prompt mitzugeben:
- Wer: In welcher Rolle soll eine KI-Antworten generieren?
- Was: Welche konkrete Aufgabe soll gelöst werden (z. B. Zusammenfassung, Prüfung, Vergleich, Entwurf)?
- Wen: An welche Zielgruppe richtet sich die Antwort?
- Wie: In welchem Stil (verständlich, akademisch, fachsprachlich), in welchem Format (z. B. als Memo, E-Mail, Tabelle usw.) sollen Antworten verfasst werden?
- Warum: Welche Ziele werden mit den gesuchten Antworten verfolgt?
Das vorgestellte Kurzschema mit Wer, Was, Wen, Wie und Warum ist in vielen Fällen ausreichend und hilft, einen Prompt strukturiert aufzubauen und bessere Ergebnisse zu erzielen. Je nach Frage und Einsatzzweck können sich jedoch weitere Dimensionen stellen, die den Prompt zusätzlich schärfen. Beispielhaft: Welcher Kontext und welche Quellen stehen zur Verfügung (z. B. Sachverhalt, einschlägige Normen, Urteile, Mandantenunterlagen)? Welche Einschränkungen und Qualitätsanforderungen gelten (z. B. Zitierweise, Offenlegung von Unsicherheiten)? Schliesslich kann es auch sinnvoll sein, dem Prompt ein Beispiel oder Muster beizugeben (z. B. eine besonders gelungene Zusammenfassung, ein Vertragsmuster, eine Rechtsschrift, eine gute Urteilsbesprechung), aus dem das Modell die gewünschten Eigenschaften ableiten kann. Dies ist oft wirkungsvoller als eine abstrakte Beschreibung. Bildhaft: Ähnlich wie das Kochen, hängt juristisches Arbeiten mit wie ohne KI entscheidend von den verwendeten Zutaten (Kontext z. B. Erlasse, Urteile, Materialien) und einem ausgefeilten Rezept (Prompt) ab.
| Prompt zur Inspiration |
|---|
| Du bist ein erfahrener Schweizer Rechtsanwalt mit Spezialisierung im öffentlichen Recht (Wer). Fasse das Bundesgerichtsurteil 2C_166/2009 zusammen und arbeite die zentralen Erwägungen heraus (Was). Die Zusammenfassung richtet sich an Studierende des zweiten Semesters im Bachelorstudium der Rechtswissenschaft an der Universität St. Gallen (Wen). Verfasse den Entscheid in verständlicher, aber fachlich präziser Sprache im Format eines kurzen Memos mit den Abschnitten Sachverhalt, Rechtsfrage, Erwägungen und Ergebnis (Wie). Ziel ist es, dass die Studierenden die wesentliche Argumentation des Bundesgerichts nachvollziehen und das Urteil in einer Falllösungsübung zitieren können (Warum). |
| Faustregel: Ähnlich wie beim Kochen gilt beim Prompten: Je besser Zutaten, Rezept und Koch, desto besser wird das Menü. |
§ 5 Die KI lernt mit (Erinnerungsfunktion)¶
Moderne KI-Anwendungen verfügen über Funktionen, welche die Notwendigkeit, jedem Prompt aufwändig Kontext mitzugeben, reduzieren. Bei Claude lässt sich beispielsweise eine Erinnerungsfunktion aktivieren, die wahlweise ein- oder ausgeschaltet werden kann. Ist sie aktiviert, merkt sich das Tool über mehrere Konversationen hinweg relevante Informationen zur Person, zu deren fachlichem Arbeitsbereich, zu bevorzugten Formulierungsstilen und zu wiederkehrenden Aufgabenmustern. Je länger und intensiver mit dem Tool gearbeitet wird, desto präziser versteht es, was in einem bestimmten Kontext erwartet wird. Das hat zur Folge, dass immer weniger Informationen im einzelnen Prompt mitgegeben werden müssen. Die KI greift auf das gelernte Profil zurück und ergänzt Fehlendes aus dem etablierten Arbeitskontext selbständig. In der Praxis erweist sich die Erinnerungsfunktion einerseits als äusserst nützlich. Andererseits kann sie zu unerwünschten Pfadabhängigkeiten und Vorverständnissen führen, welche die Sicht auf das Problem verzerren. Beispielhaft: Wer sich analog oder digital schwerpunktmässig mit Grundrechten befasst, tendiert dazu, konkrete Probleme auch dort als grundrechtliche Frage zu behandeln, wo solche einfacher und genauer als staats- oder verwaltungsrechtliche Frage behandelt werden. Ferner stellt sich die Grundsatzfrage, ob man so viele (persönliche) Daten mit den KI-Betreibern teilen möchte.
§ 6 Iteratives Arbeiten — KI als Sparringspartner¶
Ein häufiges Missverständnis im Umgang mit KI-Tools besteht im Glauben, eine einzelne Abfrage führe zu einem fertigen Ergebnis. In der Praxis ist ein dialogisches Arbeiten mit KI-Tools oft zielführender. Eine erste Antwort der KI ist selten die beste Antwort. Vielmehr empfiehlt es sich, Rückfragen zu stellen, Antworten kritisch zu hinterfragen und Ergebnisse schrittweise zu verfeinern. Hilfreich ist es auch, das KI-Tool zu fragen, welche (weiteren) Informationen es braucht, um die Frage sinnvoll zu beantworten. Kurz gesagt: KI-Tools sind als Sparring-Partner einzusetzen. Wer etwa einen Gerichtsentscheid von der KI zusammenfassen lässt, kann anschliessend gezielt nachfragen, ob bestimmte Erwägungen korrekt wiedergegeben wurden, ob relevante Aspekte fehlen oder ob die Zusammenfassung an einer bestimmten Stelle zu vereinfachend ausgefallen ist. Dieses iterative Vorgehen entspricht dem analogen juristischen Arbeiten. Auch bei der analogen Analyse eines Entscheids nähert man sich dem Verständnis schrittweise und nicht in einem einzigen Durchgang. KI ist in diesem Sinne ein Gesprächspartner, kein allwissendes Orakel; Mustererkennungsmaschine, keine echte Intelligenz.
Dazu: Brugger Daniel, Typologie der KI-Halluzinationen im Rechtsbereich, iusbubble.com.↩
Yuvaraj Joshua, The Verification-Value Paradox: A Normative Critique of Gen AI in Legal Practice, SSRN 5621550.↩
Skills lehren Claude, wie man bestimmte Aufgaben wiederholbar durchführt, sei es das Erstellen von Dokumenten nach Zitierrichtlinien oder das Verlinken von Urteilen und Erlassen als Quellen (weiterführend).↩
Als Beispiel: Der Prompting-Guide von OpenAI für GPT 5.5: https://developers.openai.com/api/docs/guides/prompt-guidance?model=gpt-5.5.↩