Kaum eine Technologie ist so stark von Mythen, Projektionen und überhöhten Erwartungen umgeben wie Künstliche Intelligenz. Sie soll angeblich denken, fühlen, Entscheidungen treffen wie ein Mensch oder gleich die gesamte Berufswelt auslöschen. In den Schlagzeilen mag das aufregend klingen. Für die Rechtswelt und die Politik ist es jedoch gefährlich. Denn Mythen verzerren die Wahrnehmung und führen zu falschen Entscheidungen: im Einsatz, in der Governance, in der Regulierung. Wer Verantwortung trägt, braucht Realität statt Projektion.
Dieser Beitrag sortiert Mythen von Fakten – und bringt Jurist:innen auf den neuesten, geerdeten Stand der Dinge. Für alle, die zwischen Euphorie und Dystopie einen fundierten Standpunkt suchen.
Wirklichkeit: KI beherrscht Sprache nicht im Sinne von Verständnis, sondern als statistisches Vorhersagesystem.
Die wohl verbreitetste Vorstellung ist, dass ein Sprachmodell die Inhalte seiner Antworten „versteht“. Die Realität sieht anders aus: Sprachmodelle wie GPT oder LLaMA sind keine semantischen Systeme, sondern statistische Vorhersagemaschinen. Sie berechnen anhand von Milliarden Parametern, welches Wort mit welcher Wahrscheinlichkeit auf das nächste folgt. Das Ergebnis kann so wirken, als sei ein Gedanke formuliert worden; Tatsächlich handelt es sich nur um eine besonders raffinierte Mustererkennung.
Diese Vermenschlichung ist gefährlich. Wenn wir glauben, eine Maschine könne „nachvollziehen“ oder „abwägen“, projizieren wir menschliche Kategorien auf Statistik. In der Psychologie spricht man von Anthropomorphisierung – im Kontext von KI bedeutet das: Wir überschätzen, was das System kann, und unterschätzen, wo es scheitert.
Realität: Das alte Dogma der Skalierung bricht.
Lange Zeit galt: Je größer das Modell, desto besser die Leistung. Die sogenannten Scaling Laws zeigten, dass mit steigender Zahl an Parametern und Rechenleistung die Genauigkeit zunahm. Doch 2025 ist klar: Dieser Effekt hat Grenzen.
Aktuelle Forschung belegt, dass Fortschritte heute nicht mehr primär im Pre-Training erzielt werden, sondern in der Inferenzphase - also in der Art und Weise, wie Modelle angewendet und dynamisch optimiert werden. Der Forethought-Report von Februar 2025 macht klar: Inferenz-Scaling kann Leistungszuwächse erbringen, die mit massiven Pre-Trainings vergleichbar sind, aber zu einem Bruchteil der Kosten und mit gänzlich anderen Kontrollpunkten.
Fazit: Größe allein ist kein Qualitätsmaßstab mehr. Entscheidend ist, wie das Modell eingebettet und gesteuert wird. Darunter fällt, wie es in der Anwendung skaliert, welche architektonischen Tricks eingesetzt und wie Tools eingebunden werden, wie externe Wissensquellen über Retrieval-Augmented Generation nachgeladen und wie Gedächtnisstrukturen während der Nutzung aufgebaut werden.
Realität: KI ist so voreingenommen wie ihre Daten.
Ein gefährlicher Mythos lautet, Maschinen seien neutral, weil sie keine Gefühle hätten. Das Gegenteil ist richtig: KI spiegelt menschliche Vorurteile wider, die in den Trainingsdaten enthalten sind. Bias ist kein Unfall, sondern strukturelles Merkmal.
Noch problematischer: Bias kann sich mathematisch verstärken. Wenn ein diskriminierendes Muster einmal im Modell verankert ist, multipliziert es sich durch jede weitere Inferenz.
Gegenstrategien:
Die Praxis zeigt: Bias lässt sich reduzieren, aber nie ganz ausschalten. Völlige Neutralität bleibt eine Illusion – entscheidend ist, wie transparent damit umgegangen wird.
Realität: KI ersetzt Tätigkeiten, nicht Berufe.
Kaum ein Mythos schürt mehr Angst als dieser. Doch die nüchterne Wahrheit lautet: KI automatisiert Aufgaben, nicht ganze Berufsrollen.
Automatisierbar sind vor allem repetitive Aufgaben - Vertragsanalysen, das Sortieren von Rechtsprechung, das Erstellen von Standardformulierungen. Doch das eigentliche juristische Handwerk – strategisches Denken, ethische Abwägung, Kommunikation mit Mandanten, die Suche nach Gerechtigkeit im Einzelfall – bleibt unersetzbar.
Die spannendere Frage lautet daher nicht: „Ersetzt KI uns?“ – sondern: „Wie verändert KI das Berufsbild?“
Der Financial Times Report 2025 dokumentiert: Law Schools wie Duke oder King’s College London bauen hybride Curricula, die juristische Tiefe mit technischer Kompetenz kombinieren. PwC Australien prognostiziert: Zentrale Skills der Zukunft sind Empathie, Ethik und Entscheidungsstärke, flankiert von Micro-Credentials im KI-Bereich.
Realität: Die eigentliche Gefahr ist der Mensch, der KI falsch einsetzt.
Oft wird KI als Bedrohung stilisiert – mächtiger, schneller, unkontrollierbar. Aber gefährlich wird sie erst durch unser Handeln.
Künstliche Intelligenz ist keine mystische Macht, sondern eine hochentwickelte Statistikmaschine. Sie ist mächtig, aber nicht magisch. Sie hat Potenzial, aber auch strukturelle Grenzen. Mythen zu entlarven, heißt nicht, KI kleinzureden, sondern sie ernst zu nehmen. Nur wer die Realität kennt, kann Chancen nutzen und Risiken begrenzen.