Künstliche Intelligenz ist mittlerweile auch im Rechtsbereich allgegenwärtig. Begriffe wie Machine Learning, NLP oder LLM schwirren durch Blogs, Fortbildungen und Meetings. Doch was bedeuten sie eigentlich? In diesem Beitrag bieten wir eine verständliche Einführung in vier zentrale KI-Konzepte, die Sie als Jurist:in kennen sollten: Machine Learning, NLP, LLM und RAG. Ohne komplizierte Formeln oder Programmier-Chinesisch – stattdessen mit praxisnahen Beispielen aus der juristischen Welt.
Ziel ist, Ihnen Aha-Momente zu verschaffen, sodass Sie beim nächsten Tech-Talk mitreden können und erkennen, wofür man diese Technologien im Rechtsalltag nutzen kann. Los geht’s:
Maschinelles Lernen (Machine Learning, ML)
Maschinelles Lernen nutzt Algorithmen, um selbstständig aus Daten Muster zu erkennen und darauf basierend Vorhersagen oder Entscheidungen zu treffen. Statt einem Computer detaillierte Regeln (“Wenn X und Y, dann tue Z”) vorzugeben, zeigt man ihm viele Beispiele (Eingaben -> gewünschte Ausgaben) – etwa juristische Urteile oder Verträge –, aus denen das System lernt, eigenständig Muster zu erkennen. Das System passt interne Parameter so an, dass es aus Eingabedaten die richtigen Schlussfolgerungen zieht. Es lernt dabei aus Erfahrung (den Daten) – ähnlich wie Jurist:innen aus vielen Fällen ein Gefühl für die Rechtslage entwickeln.
Die wichtigsten ML-Methoden, die Sie kennen sollten, sind:
- Überwachtes Lernen (supervised learning): Systeme lernen anhand von gelabelten Daten, z.B. tausenden Verträgen, die als „gültig“ oder „anfechtbar“ markiert sind. Ein praktisches Beispiel: Die Einschätzung, wie ein Gericht in einem bestimmten Fall urteilen könnte indem ein ML-System mit tausenden Gerichtsentscheidungen trainiert wird, um anschließend die Wahrscheinlichkeit eines Urteils in einem neuen Fall abzuschätzen (sog. predictive justice - siehe bald einen neuen Blogbeitrag dazu).
- Unüberwachtes Lernen (unsupervised learning): Systeme suchen selbstständig Strukturen in unetikettierten Daten. Beispielsweise könnten unzählige juristische Dokumente automatisch nach Typ oder Inhalt gruppiert werden (clustering), ohne dass zuvor Kategorien definiert wurden.
- Bestärkendes Lernen (Reinforcement Learning): Systeme lernen durch Ausprobieren und Feedback. Ein interaktives und unterhaltsames Beispiel ist die Stanford-Studie, in der ein Strichmännchen durch Belohnung und Fehlerkorrektur laufen lernt. AI Learns to Walk (deep reinforcement learning)
Leistungsfähigkeit: ML-Ergebnisse sind immer so gut wie die Qualität und Menge der Trainingsdaten. Je besser und umfangreicher die Daten, desto zuverlässiger das Ergebnis. Lesen Sie dazu auch unsere neuen Blogartikel zu Rechengrenzen sowie zum Thema KI-Bias.
Natürliche Sprachverarbeitung (Natural Language Processing, NLP)
Ein Großteil der juristischen Arbeit besteht aus Texten – Gesetze, Verträge, Schriftsätze. NLP ermöglicht Computern das Verstehen, Verarbeiten und Erzeugen menschlicher Sprache. Während ältere Suchsysteme nur exakte Treffer lieferten (Stichwort: „exact match“-Suche in Datenbanken), erkennt NLP auch Synonyme und semantische Zusammenhänge.
Ein Beispiel ist die automatische Vertragsanalyse: NLP-Software kann ein 50-seitiges Vertragsdokument in Sekunden analysieren und dabei alle Klauseln herausfiltern, die juristische Risiken enthalten. Das System erkennt dabei nicht nur exakt vordefinierte Schlagworte, sondern auch Synonyme und semantisch ähnliche Formulierungen. Juristische Übersetzungen profitieren ebenfalls stark von NLP: Früher lieferten Maschinenübersetzer oft holprige, wortwörtliche Ergebnisse. Heutige Modelle wie DeepL verstehen Kontext und Fachterminologie jedoch so gut, dass internationale Kanzleien bereits bis zu 80 % der Übersetzungszeit sparen – lediglich eine kurze manuelle Endkontrolle bleibt nötig. NLP umfasst zudem Sprachanalyse (z.B. Erkennen der Stimmung oder Tonalität in Texten), Textzusammenfassungen, Textklassifikation (etwa Unterscheidung zwischen Beschwerde, Vertrag oder Gutachten), Informations-Extraktion (z.B. automatische Erkennung von Parteien, Datumsangaben und Fristen in Urteilen) sowie Named Entity Recognition (Identifikation von Namen, Gesetzen oder Orten).
• Warum sollte man das kennen? NLP ist im Grunde die Brücke, die KI ins Reich der Wörter schlägt – und damit direkt in unseren juristischen Arbeitsalltag, der ja zum Großteil aus Lesen und Schreiben besteht. Wenn ein Programm Urteile zusammenfasst oder Vertragsklauseln vergleicht, dann wendet es NLP-Methoden an. Zu wissen, dass NLP auf Mustererkennung in Sprache basiert, hilft bei der Fehlersuche: Wenn etwa eine automatische Übersetzung holprig klingt, liegt das daran, dass das NLP-Modell eine statistisch häufige, aber im Kontext falsche Übersetzung gewählt hat.
Große Sprachmodelle (Large Language Models, LLMs)
In den letzten Jahren sorgten große Sprachmodelle wie ChatGPT, Llama oder Claude für großes Aufsehen – und das zurecht. Ein Large Language Model (LLM) ist ein KI-Sprachmodell, das mit riesigen Mengen Text trainiert wurde und dadurch komplexe Aufgaben bewältigen und menschlich klingende Texte generieren können. Doch warum large“? Weil die beeindruckende Leistungsfähigkeit dieser Modelle maßgeblich von ihrer Größe abhängt. So wurde GPT-4 beispielsweise mit über hundert Milliarden Parametern trainiert, wobei Abermillionen von Texten verarbeitet wurden – von Wikipedia-Artikeln über Nachrichten bis hin zu wissenschaftlichen Publikationen.
Technisch betrachtet handelt es sich bei diesen LLMs um extrem große neuronale Netze – häufig sogenannte Transformer-Modelle.
Transformer betrachten Sätze nicht einfach von links nach rechts, sondern berücksichtigen jedes Wort im Satz gleichzeitig in einem breiteren Kontext. Dies ermöglicht ihnen, die Bedeutung von Wörtern abhängig von ihrer jeweiligen Stellung und Beziehung zu anderen Wörtern im Satz sehr genau zu erfassen. Im Gegensatz zu früheren Modellen, die Wörter nur nacheinander verarbeiten konnten, erkennen Transformer dadurch den Kontext und die feinen Nuancen der Sprache effizienter und genauer. Eine interaktive Erklärung zu Transformer-Modellen finden Sie hier.
Retrieval-Augmented Generation (RAG)
Eine zentrale Herausforderung bei LLMs ist das sogenannte „Halluzinieren“ von Antworten. Ein wirksames Gegenmittel dazu ist Retrieval-Augmented Generation (RAG). Dabei kombiniert das Modell seine generativen Fähigkeiten mit einer Recherchekomponente: Es greift gezielt auf vertrauenswürdige Quellen zurück, bevor es antwortet.
Ein Beispiel dafür ist die Integration der RAG-Funktion in die MANZ Genjus KI, die speziell für juristische Fachinformationen konzipiert wurde und präzise Rechercheergebnisse mit KI-gestützten Antworten kombiniert. Ein zentraler Vorteil: Diese Methode vermeidet es, Trainingsdaten dauerhaft in das Modell einzuspeisen – was besonders mit Blick auf sensible Inhalte relevant ist. Bei MANZ wurde RAG gezielt auch deshalb gewählt, um zu gewährleisten, dass keine Autorendaten zum Training von Sprachmodellen verwendet werden.
Praktisch bedeutet das: Fragt ein Nutzer nach einer bestimmten Rechtsfrage, durchsucht das System zuerst eine Wissensdatenbank, welche bei der MANZ Genjus KI etwa die RDB, RIS und Co. umfasst, und zieht dann daraus relevante, bestätigte Informationen. Diese verifizierten Inhalte werden dem Modell übergeben, welches dann eine fundierte und präzise Antwort formuliert.
Technisch gesehen ist RAG kein Hexenwerk: Es kombiniert Information-Retrieval (klassische Suche, wie Google) mit NLP-Generation. Doch in der Anwendung hat es enorme Wirkung. RAG gilt derzeit als wichtiger Ansatz, um KI sozusagen „mit dem Gesetzbuch in der Hand“ arbeiten zu lassen. Für Jurist:innen dürfte dieser Hybrid aus Datenbankrecherche und KI-Textgenerierung zum Alltagstool werden.
Fazit
KI ist kein Hexenwerk – und mit jeder Lernminute, die Sie investieren, fällt ein Stück des “Tech-Vorhangs”. In diesem Sinne: Viel Erfolg beim Einsatz dieser Technologien – die Zukunft hat gerade erst begonnen!