„Fiat iustitia, ruat caelum“ - Es soll Gerechtigkeit geschehen, und wenn der Himmel einstürzt. Doch was, wenn das Urteil nicht mehr im Namen des Volkes, sondern im Namen eines Algorithmus gesprochen wird? Wenn Logik den Kontext ersetzt - und Verhältnismäßigkeit im Code verloren geht?
Robojudges, Algorithmusurteile und die Blackbox im Gerichtssaal - wo endet die Effizienz und wo beginnt die Entmenschlichung?
Dieser Beitrag liefert einen Deep Dive in das Spannungsfeld zwischen Künstlicher Intelligenz und Strafrecht. Zwischen Legal Formalismus und Realismus, zwischen Paragraf und Perspektive. Wer verstehen will, wie automatisierte Entscheidungen das Wesen des fairen Verfahrens herausfordern - und was der EU AI Act dagegen setzt - findet hier Antworten.
Die zunehmende Integration von KI-Systemen in gerichtliche Entscheidungsprozesse bringt massive juristische und ethische Spannungsfelder mit sich. Im Fokus stehen zentrale Grundprinzipien des Strafverfahrens welche auf Aristoteles‘ Problemata (etwa350 v.Chr.) zurückdatieren: die Unschuldsvermutung, das Recht auf ein faires Verfahren und die unmittelbare Beweisaufnahme durch den/die Richter:in.
Die zentrale These: KI kann aufgrund ihrer mechanistischen Natur menschliche Eigenschaften wie Reue, Glaubwürdigkeit oder Absicht nicht erfassen. Sie approximiert sie bestenfalls - mit Checklisten und Wahrscheinlichkeiten.
Doch bevor wir uns der Zukunft zuwenden, lohnt sich ein Blick zurück: Seit jeher streitet die Rechtsphilosophie darüber, was einen guten Richter ausmacht: Soll Gerechtigkeit blind und regelstreng sein - im Sinne des Legal Formalism - oder darf sie sehen, was ein Mensch wirklich braucht, und kontextsensibel urteilen - wie es der Legal Realism fordert?
Künstliche Intelligenz bringt diese alte Debatte in ein neues Licht. Ein Blick auf aktuelle Vergleichsstudien (vgl. Forbes, März 2025) bestätigt eine Trennung der Urteilstendenzen deutlich: GPT-4o hielt sich in über 90 % der Fälle strikt an rechtliche Präzedenzfälle - völlig unabhängig davon, ob der:die Angeklagte sympathisch wirkte oder nicht. Menschliche Richter:innen hingegen ließen sich in rund 65 % der Fälle von Sympathie, Kontext und sozialer Wirkung beeinflussen, selbst wenn dies bedeutete, vom rechtlich vorgesehenen Ergebnis abzuweichen. Und frischgebackene Jus-Studierende lagen dazwischen: Sie folgten in etwa 85 % der Fälle dem Präzedenzfall, mit minimaler emotionaler Beeinflussung.
Damit wird deutlich: Was KI und menschliche Richter:innen trennt, ist nicht nur Technik, sondern auch das Menschenbild dahinter. Und genau deshalb geht es beim Einsatz von KI in der Justiz nicht nur um Funktion - sondern um Werte.
Vorverurteilung per Code? KI und das Prinzip in dubio pro reo
Die Unschuldsvermutung zählt zu den tragenden Säulen des Strafverfahrens. Sie verpflichtet den Staat, die Schuld eines Menschen zweifelsfrei nachzuweisen - und schützt davor, sich selbst entlasten zu müssen. Verankert in Art. 6 EMRK, § 8 StPO sowie der EU-Richtlinie 2016/343, ist sie Ausdruck eines grundrechtsbasierten Strafprozesses.
Doch dieser Grundsatz gerät ins Wanken, wenn algorithmische Risikobewertungen wie Heat Lists oder PredPol in (Vor-)Verfahrensentscheidungen einfließen. Was als objektive Einschätzung erscheint, basiert oft auf historischen, strukturell verzerrten Daten - gespeist von Überwachung und Wahrscheinlichkeit, nicht von der Unschuldsvermutung. Die Folge: Eine Verlagerung des Rechtsschwerpunkts - weg vom konkreten Sachverhalt, hin zur prognostizierten Gefährlichkeit.
Auch das Prinzip der Unmittelbarkeit, das richterliche Urteilskraft an persönliche Wahrnehmung knüpft, wird ausgehöhlt: Wenn Richter:innen sich ausschließlich auf KI-generierte Zusammenfassungen stützen, fehlt der direkte Eindruck, den Entscheidungen so dringend brauchen. Denn was zählt, ist nicht nur das, was gesagt wird - sondern wie.
So wird deutlich: Die Integration von KI in gerichtliche Vorentscheidungen kann zwar hohe Effizienzgewinne mit sich bringen, die zwischenmenschliche Komponente aber nicht komplett ersetzen, um nicht Gefahr zu laufen, zentrale Verfahrensgarantien schleichend auszuhöhlen. Und mit ihnen das Vertrauen in eine menschlich gerechte Justiz.
Wenn Algorithmen nicht Menschen beurteilen, sondern Gruppenmerkmale auswerten, wird das Individuum zur reinen Variable. Dabei lebt Strafrecht vom Persönlichkeitsprinzip: Schuld ist nicht kollektiv, sondern individuell. Und genau das steht auf dem Spiel.
Noch gravierender: Die meisten KI-Systeme lernen nicht aus neutraler Realität, sondern aus historischen Verzerrungen. Sie spiegeln nicht Kriminalität, sondern polizeiliche Kontrollmuster. Das heißt konkret: Wer früher häufiger kontrolliert oder angezeigt wurde - etwa aufgrund von Hautfarbe, Wohngegend oder sozioökonomischem Status - landet auch künftig häufiger auf den Risikoradaren der Algorithmen.
Ein prominentes Beispiel: Das US-amerikanische COMPAS-System. Es bewertet das Rückfallrisiko - doch schwarze Angeklagte wurden fast doppelt so oft fälschlich als „hochgefährlich“ eingestuft. Die Fehlerquote insgesamt: 55 %. Und dennoch wird solchen Tools mitunter mehr geglaubt als menschlichen Einlassungen.
🎬 Filmtipp zum Thema: Tatort Folge 1301 - „Im Wahn“. Sie macht deutlich, wie gefährlich es ist, wenn maschinelle Auswertungen als objektiv gelten, während menschliche Nuancen und Kontextualisierungen in der Strafverfolgung und im Strafverfahren in den Hintergrund treten - und damit das Menschliche im System verloren geht. Zur Sendung
Hinzu kommt ein weiteres Problem: Viele dieser Systeme können ihre Entscheidungen nicht begründen. Sie operieren nach dem Prinzip „Pattern in, Prediction out“ - ohne dass transparent wird, welche Faktoren letztlich den Ausschlag gegeben haben (siehe auch Blogbeitrag zur Blackbox-Problematik und den Grenzen von Explainable AI). Sprachmodelle wiederum arbeiten auf Basis von Wahrscheinlichkeiten, nicht nach juristischer Argumentationslogik. Das Urteil wird zur statistischen Annäherung - nicht zur rechtlich fundierten Entscheidung. Recht ohne Rechenschaft. Was dabei verloren geht: die Begründungspflicht, das Vertrauen in die Entscheidung, und letztlich: das Fundament des strafrechtlichen Verfahrens selbst.
Warum Urteilskraft mehr braucht als Daten - Schablonenjustiz und das Fehlen von Empathie
Gerade bei der Strafzumessung geht es um mehr als Fakten: Reue, Einsicht, Lebensumstände. Strafzumessung ist zutiefst menschlich, Richter:innen beurteilen mehr als Worte und urteilen anders als ein System, das nur Felder abgleicht.
Im Gegensatz: KI erkennt keine Zwischentöne, keine Biografien, keine soziale Einbettung. Ergebnis: Standardisierte Entscheidungen ohne Kontext. KI kann keine Reue erkennen, keine Ausflüchte durchschauen, keine Biografie begreifen. Sie wird standardisieren, wo Individualisierung nötig ist. Ergebnis: Schablonenjustiz statt Rechtsgefühl.
Zugegeben - auch menschliche Richter:innen sind nicht frei von Fehlern. Studien zeigen, dass Faktoren wie Tageszeit oder Erschöpfung Einfluss auf Urteilsfreudigkeit haben können - der berühmte „hungry judge effect“ spricht Bände. Doch diese Schwächen sind situativ, individuell, und sie betreffen einzelne Entscheidungen.
Ganz anders die KI: Ihre Fehler sind nicht punktuell, sondern strukturell. Ihre Fehler folgen keiner Laune - sie folgen einer Struktur. KI irrt nicht situativ, sie irrt systematisch. Und schlimmer noch: Diese Fehler skalieren. Ein fehlerhaft trainierter Algorithmus trifft keine Ausnahmeentscheidung - er reproduziert seine Verzerrungen tausendfach, mit jedem neuen Fall. Ohne Verantwortung, ohne Gewissen, ohne Korrektiv. Er liefert nur Output - und verschleiert dabei oft, wie er zu seinem Ergebnis kam.
Deshalb ist es so gefährlich, algorithmische Entscheidungen mit objektiver Wahrheit zu verwechseln. Robojudges mögen effizient erscheinen - doch wo Nachvollziehbarkeit, Mitgefühl und kontextuelles Urteilsvermögen fehlen, wird aus rechnerischer Korrektheit noch lange keine Gerechtigkeit.
Hier zieht der EU AI Act eine klare Linie: Justiz-Entscheidungen müssen letztlich von Menschen getroffen werden - besonders, wenn Grundrechte auf dem Spiel stehen. Predictive Policing wird sogar explizit verboten (Art 5) (siehe Blogartikel zu Predictive Policing), viele Justizanwendungen gelten als „Hochrisiko-Systeme“ und unterliegen strengen Anforderungen.
„Robo-Judges“ sind damit nicht völlig ausgeschlossen - aber realistisch gesehen nur unter Bedingungen denkbar, die sie in der Praxis (noch) nicht erfüllen. Denn ein Urteil verlangt mehr als Datenlogik: Es verlangt Verantwortlichkeit, Abwägung, Menschlichkeit und genau das schützt der EU AI Act.
Better together? KI als Copilot
Trotz aller Risiken gibt es Grund zur Hoffnung und vorsichtigen Fortschrittsoptimismus gemäß des „better together approach“: Wenn KI richtig eingesetzt wird, kann sie den Rechtsstaat und die Verfahrensgerechtigkeit sogar stärken.
Aber sie darf niemals richterliche Urteilskraft, rechtliches Gehör oder persönliche Verantwortlichkeit verdrängen. Nur wo Technik und Recht kollaborieren, bleibt das Verfahren fair, der Mensch im Zentrum - und die Justiz menschlich.
Fiat iustitia, ruat caelum. Gerechtigkeit um jeden Preis auch im digitalen Zeitalter, aber bitte mit Herz, Verstand und menschlicher Verantwortung.
Oxford Public International Law: In Dubio Pro Reo
AI Judges Follow The Law, Human Judges Follow Their Hearts, Study Reveals