Leadership & KI
AI Is Not Creating Value. It’s Creating Slop.
Warum mehr Modelle, Tools und Agenten nicht zu besseren Entscheidungen führen.

“Tech Junk”prompted by AIdentity-Engine. Rendered by SORA
Die meisten Organisationen unserer Zeit sind Relikte. Nicht, weil sie falsch gedacht wurden – sondern weil sie für eine Realität entworfen wurden, die es so nicht mehr gibt. Sie stammen aus einer Welt, in der Abstimmung teuer war, Information knapp und Veränderung träge. Das war das Spielfeld. Und jedes System ist, wie ein gutes Werkzeug, immer nur so klug wie die Bedingungen, für die es gebaut wurde. Heute sehen wir moderne Titel, agile Methoden, wohlformulierte Kulturstatements. Doch unter der Oberfläche wirkt noch immer die alte Logik. Was wir Organisation nennen, ist oft nichts anderes als eine konservierte Vergangenheit – eine Art Zeitkapsel, optimiert für Restriktionen, die sich gerade auflösen.
Dann betritt ein neuer Spieler die Bühne: Künstliche Intelligenz. Und schon kippt die Physik. Plötzlich kollabieren die Kosten für Koordination. Kommunikation wird nahezu reibungslos. Wissen ist nicht mehr knapp, sondern im Überfluss vorhanden. Entscheidungen? Sie entstehen zunehmend in Echtzeit – unterstützt, erweitert, manchmal sogar vorweggenommen. Wozu brauchen wir Hierarchien, wenn ihr ursprünglicher Zweck verschwindet? Spoiler: Wir brauchen sie weniger, als uns lieb ist. Hierarchien waren nie Ideologie. Sie waren Infrastruktur.
Und Infrastruktur wird ersetzt, wenn sie ineffizient wird. Immer.
Effizienz ist das Fitnessstudio für Dinosaurier
Die Organisationen, die sich jetzt bewegen, werden nicht einfach effizienter. Vielmehr verändert sich ihre Natur.
Wir beobachten eine stille Revolution. Kein Feuerwerk. Eher ein lautloses Umschreiben des Codes:
- Nicht mehr Funktionen stehen im Zentrum, sondern Ergebnisse.
- Nicht mehr Positionen definieren Verantwortung, sondern Ownership.
- Nicht mehr starre Strukturen geben Halt, sondern dynamische, systemische Teams.
Das sind keine kosmetischen Anpassungen. Das ist ein Eingriff in das Betriebssystem selbst. Denn wenn ein System nur funktioniert, solange Menschen sich perfekt innerhalb seiner Logik verhalten, dann ist nicht der Mensch das Problem – sondern das System. Die eigentliche Frage ist also nicht, ob dieser Wandel kommt. Er ist längst im Gange.
Die Frage ist subtiler. Vielleicht auch unangenehmer:
Wird deine Organisation diesen Wandel gestalten – oder von einem Modell begrenzt bleiben, das die Realität bereits hinter sich gelassen hat?
Wir leben in einer paradoxen Ökonomie:
Er ist subtil. Und genau deshalb gefährlich. Das Paradoxuum unserer Ökonomie: Koordination ist fast gratis. Information? Ein Ozean ohne Ufer. Intelligenz wird zur Commodity. Skalierbar. On demand. Austauschbar. Klingt nach Utopie. Ist aber ganz real: Mehr Tools. Mehr Agenten. Mehr Output. Und plötzlich hast du… mehr Optionen. Nicht bessere Entscheidungen. Mehr plausible Antworten. Mehr „könnte sein“.
Mehr intellektuelles Rauschen in High Definition.
Willkommen im neuen Engpass.
Früher war das Problem: zu wenig Information. Heute ist das Problem: zu wenig Bedeutung.
Der neue Ausfallmodus von KI ist nicht schwache Intelligenz. Nicht schlechte Modelle. Nicht fehlende Daten. Nicht einmal mangelnde Adoption. Er ist brutaler. Nicht gesteuerte Bedeutung.
Denn wenn alles sagbar ist, wird nichts mehr relevant. Wenn jede Antwort plausibel klingt, verliert Wahrheit ihre Schwerkraft.
KI produziert Optionen. Im Überfluss. Aber sie priorisiert nicht. Sie entscheidet nicht. Sie steht für nichts. Und genau hier kippt das System.
Organisationen verdursten nicht an Intelligenz. Sie ertrinken an Kontextlosigkeit.
Ein Meeting mit fünf Meinungen war schon schwer. Ein System mit 500 generierten Optionen? Lähmend.
Das Ergebnis? Entscheidungen werden vertagt. Verantwortung diffundiert. Strategie zerfällt zu einer Sammlung gut formulierter Möglichkeiten. Klingt vertraut?
Die bittere Pointe: Mehr Intelligenz führt nicht automatisch zu mehr Klarheit. Oft führt sie zu mehr Ambiguität. Was fehlt, ist kein weiteres Modell. Was fehlt, ist Führung. Nicht im klassischen Sinn. Sondern als Fähigkeit, Bedeutung zu setzen. Zu sagen: Das ist wichtig. Das nicht. Das ist Richtung. Das ist nur Rauschen.
Denn ohne diese Fähigkeit wird KI nicht zum Beschleuniger. Sondern zum Verstärker von Beliebigkeit. Und das ist der Tod jeder Strategie. Die eigentliche Frage ist also nicht: „Wie viel KI setzen wir ein?“ Sondern: Wer entscheidet, was sie bedeutet?
Die Symptome sind längst sichtbar.
Über Branchen hinweg berichten Unternehmen von denselben Mustern:
- 80–90 % der Inhalte haben keinen operativen Impact
- Wissensarbeiter verlieren rund 30 % ihrer Zeit mit der Suche nach Informationen
- Entscheidungen werden langsamer – trotz besserer Datenlage
Das sind keine isolierten Ineffizienzen.
Das ist ein systemischer Zustand.
Es ist genau die Umgebung, in der „Slop“ entsteht.
„Slop“ ist ein informeller Begriff aus dem Tech- und KI-Kontext und bedeutet im Kern: inhaltlicher Abfall – also Output, der zwar formal korrekt aussieht, aber keinen echten Wert, keine Tiefe oder keine belastbare Bedeutung hat.
- Inhalte sind nicht falsch, aber nicht eindeutig interpretierbar
- sie erzeugen keine klare Entscheidungsgrundlage
Das ist der gefährlichste „Slop“, weil er Rauschen als Signal tarnt
„Slop“ wird häufig als Qualitätsproblem verstanden: zu viel generierter Content, zu wenig Relevanz, zu wenig Steuerung. Doch diese Perspektive greift zu kurz. Slop ist nicht das Problem, sondern nur das das sichtbare Rauschen einer Organisation, die Bedeutung nicht steuert. Und genau hier wirkt die aktuelle Welle der KI-Transformation als Verstärker. Insbesondere der Agenten-Hype verschärft die Situation strukturell:
- mehr autonome Systeme
- mehr generierter Output
- mehr parallele Perspektiven
Aber gleichzeitig:
- keine gemeinsame Referenz für Relevanz
- kein stabiler Kontext über Systeme hinweg
- keine Struktur, die festlegt, was überhaupt zählt
Die Konsequenz ist unausweichlich:
KI skaliert nicht nur Intelligenz. Sie skaliert Ambiguität.
Ohne eine verbindende Bedeutungsschicht erhöht jedes zusätzliche System:
- die Zahl möglicher Interpretationen
- die Menge plausibler Empfehlungen
- die Fragmentierung von Entscheidungen
Genau deshalb bleiben die aktuellen Lösungsansätze operativ unzureichend.
Die dominierenden Narrative im Markt sprechen von:
- AI-native Organisationen
- Agent-Orchestrierung
- neuen Operating Models
- veränderten Führungsprinzipien
Diese Narrative beschreiben Veränderung. Aber sie definieren nicht, wodurch sie gesteuert wird.
Sie liefern Prinzipien – aber keine Steuerungsvariable. Und ohne Steuerungsvariable lässt sich kein System führen.
Jedes funktionierende System im Unternehmen basiert auf einer klar definierten Größe:
- Finance steuert Kapital
- Operations steuert Effizienz
- Sales steuert Conversion
Doch wenn es um Entscheidungen unter KI-Bedingungen geht, bleibt eine zentrale Frage unbeantwortet:
Was ist die Variable, die Entscheidungen tatsächlich steuert?
Hier liegt der blinde Fleck der aktuellen KI-Transformation. Warum mehr Intelligenz nicht zu besseren Entscheidungen führt, zeigt Teil II: Intelligenz v. Urteilskraft.
