AI-Agentenrollen im Disney-Modell
Das Disney-Modell der Kreativität ist über 30 Jahre alt. Seine Dreiteilung in Träumer, Realist und Kritiker liefert eine überraschend präzise Architektur für KI-Agenten-Workflows: spezialisierte Rollen, strikte Phasentrennung, iterative Qualitätssicherung.
Foto: Alan Fisher / New York World-Telegram & Sun, Library of Congress (Public Domain)
Das Disney-Modell: Mehr als eine Kreativitätstechnik
Ein Disney-Animator soll einmal gesagt haben, es gäbe „drei verschiedene Walts": Einen, der wild träumte. Einen, der Pläne schmiedete. Und einen, den man besser nicht im Raum haben wollte, wenn man eine frische Idee präsentierte. Robert B. Dilts formalisierte diese Beobachtung in den frühen 1990er Jahren zu einem Prozessmodell, das er in Tools for Dreamers (1991) erstmals systematisch beschrieb.
Die Kernidee ist einfach: Kreative Leistung entsteht nicht trotz, sondern durch die Trennung von drei Denkfunktionen. Wer gleichzeitig Ideen generiert und sie bewertet, blockiert sich selbst. Dilts fasste die drei Phasen als Leitfragen:
Dreamer
„WANT TO“
Was wollen wir? Warum? Was wäre möglich, wenn es keine Einschränkungen gäbe? Der Dreamer denkt groß, unzensiert, visionär. Keine Machbarkeitsprüfung, kein „Ja, aber“.
Realist
„HOW TO“
Wie setzen wir das um? Wer macht was, wann, womit? Der Realist kritisiert nicht — er macht machbar. Schritte, Meilensteine, messbare Kriterien.
Kritiker
„CHANCE TO“
Was könnte schiefgehen? Wer ist betroffen? Was funktioniert heute gut und darf nicht kaputtgehen? Der Kritiker verbessert — er zerstört nicht.
Das entscheidende Detail steckt im Namen der dritten Phase: Dilts nannte sie nicht „Danger to“, sondern „Chance to“. Der Kritiker ist nicht der Feind der Idee — er ist ihre Chance auf Verbesserung. Jede Kritik wird in eine konstruktive Frage übersetzt: „Wie können wir...?“
Warum das Disney-Modell auf KI-Agenten passt
Auf den ersten Blick wirkt die Übertragung einer Kreativitätstechnik aus den 1990ern auf KI-Agenten wie eine hübsche Analogie. Sie ist mehr als das — und zwar aus einem strukturellen Grund.
Das Grundproblem bei komplexen KI-Workflows ist bekannt: Ein einzelner Agent, der gleichzeitig generiert, plant und bewertet, produziert Mittelmaß. Das gilt für Code genauso wie für Designs, Strategiepapiere oder Kampagnenkonzepte. Das LLM hat keine natürliche Phasentrennung. Es halluziniert und korrigiert im selben Atemzug. Es entwirft großartige Konzepte und zieht sich im nächsten Token in sichere Platitüden zurück — weil das nächste Token auch die Bewertung des vorherigen ist.
Das ist exakt das Problem, das Dilts bei menschlichen Teams beschrieb: Vermischung der Denkfunktionen blockiert den Prozess. Die Lösung ist in beiden Fällen dieselbe — Rollentrennung durch Architektur, nicht durch Disziplin:
- Beim Menschen: Verschiedene Räume, verschiedene Zeiten, klare Phasenwechsel.
- Bei KI-Agenten: Verschiedene System-Prompts, verschiedene Kontexte, klare Übergabe-Artefakte.
Die drei Dilts-Rollen lassen sich direkt als Agenten-Architektur implementieren:
| Rolle | Im Workshop | Als KI-Agent | Output |
|---|---|---|---|
| Dreamer | Einladende Raumumgebung, keine Kritik erlaubt | System-Prompt: „Denke radikal, keine Einschränkungen.“ Hohe Temperature. | 3–5 Lösungsansätze, Payoff-Statements, Zukunftsbild |
| Realist | Praktischer Arbeitsraum, Flipcharts, Zeitachsen | System-Prompt: „Mache es machbar. Schritte, Ressourcen, Kriterien.“ | Schrittplan, Meilensteine, messbare Erfolgskriterien |
| Kritiker | Bewusst „ungemütlicher“ Raum, harte Fragen | System-Prompt: „Prüfe gegen Kriterien X, Y, Z. Sei streng.“ Frischer Kontext. | Schwachstellenliste, Ökologie-Check, „Wie können wir...?“-Fragen |
Der Kritiker-Agent: Das Herzstück der Qualitätssicherung
Von den drei Rollen ist der Kritiker die interessanteste für KI-Workflows — weil er das Problem löst, das LLMs am schlechtesten selbst lösen können: die eigene Arbeit ehrlich bewerten.
Ein LLM, das seinen eigenen Output beurteilt, ist wie ein Autor, der sein eigenes Buch rezensiert. Die Informationen, die zur Erzeugung geführt haben, sitzen noch im Kontext — und färben die Bewertung. Die Lösung ist architektonisch:
Designprinzipien für den Kritiker-Agent
Frischer Kontext — kein Gedächtnis des Erzeugungsprozesses
Der Kritiker-Agent startet ohne den Kontext der Dreamer- und Realist-Phasen. Er kennt nur den standardisierten Prüfprompt und das fertige Artefakt. Keine Entstehungsgeschichte, keine Zwischenversionen, keine Rechtfertigungen. Das verhindert den „Sunk-Cost-Bias“, der entsteht, wenn ein Agent seinen eigenen Denkweg rekapituliert.
Standardisierter Prüfprompt — konsistent über Sessions
Der Kritiker bekommt immer denselben Bewertungsprompt, unabhängig davon, was der Dreamer oder Realist in dieser Session erlebt hat. Das macht Bewertungen vergleichbar: Was in Session 1 mit 75% bewertet wird, hat denselben Maßstab wie das Ergebnis in Session 30.
Konkrete Prüfkriterien — keine vagen Qualitätsurteile
Nicht „Ist das gut?“, sondern: „Prüfe gegen diese spezifischen Kriterien. Bewerte pro Komponente. Nenne verdächtige Stellen.“ Je konkreter die Kriterien, desto nützlicher das Ergebnis. Vage Prompts erzeugen vage Kritik.
Kritik als Frage — Dilts' „Wie können wir...?“
Reine Negativlisten sind auch für KI-Workflows nutzlos. Der Kritiker-Agent soll jede Schwachstelle in eine konstruktive Frage übersetzen: Nicht „Das Modul ist schlecht strukturiert“, sondern „Wie kann das Modul die Verantwortlichkeiten klarer trennen?“ Das gibt dem Dreamer in der nächsten Iteration einen konkreten Ansatzpunkt.
Ökologie-Check — was darf nicht kaputtgehen?
Dilts' wichtigster und am häufigsten vergessener Punkt: Der Kritiker prüft nicht nur Risiken, sondern auch, welche positiven Eigenschaften des Status quo erhalten bleiben müssen. In KI-Workflows: Welche bestehende Struktur, welcher Ton, welche Konsistenz mit dem Gesamtprojekt darf bei der Überarbeitung nicht verloren gehen?
„Der Kritiker muss mindestens eine Ökologie-Frage stellen. Reine Negativlisten sind nicht erlaubt.“
Iterationslogik: Mindestens drei Durchläufe
Ein einzelner Durchlauf (Dreamer → Realist → Kritiker) liefert selten ein belastbares Ergebnis. Das Modell sieht mindestens drei vollständige Zyklen vor — und hier wird es für KI-Workflows besonders wertvoll.
Die drei Durchläufe unterscheiden sich fundamental
Durchlauf 1: Exploration. Der Dreamer generiert breit. Der Realist sortiert. Der Kritiker identifiziert die offensichtlichsten Schwächen und formuliert „Wie können wir...?“-Fragen. Ergebnis: Ein grobes Artefakt plus eine konkrete Liste von Verbesserungsfragen.
Durchlauf 2: Evolution. Der Dreamer arbeitet jetzt informiert. Er kennt die Kritiker-Fragen und integriert sie — ohne sich von ihnen einengen zu lassen. Er kombiniert die besten Elemente aus Durchlauf 1 und versucht mindestens eine neue Variante. Der Realist schärft den Plan. Der Kritiker prüft mit demselben standardisierten Prompt — und vergleicht mit dem Ergebnis aus Durchlauf 1.
Durchlauf 3: Konvergenz. Wenn die Ansätze über die Durchläufe stabil geblieben sind, konvergiert der Prozess. Wenn nicht, iteriert er weiter. Das Ergebnis ist ein finaler One-Pager: Vision, Plan, Risiken, Ökologie-Check und klare Go/No-Go-Empfehlung.
Praktische Umsetzung: Ein Agenten-Tableau
Die folgende Architektur lässt sich direkt als Multi-Agent-System implementieren — ob mit LangChain, CrewAI, Anthropic's Tool Use oder einem einfachen Orchestrator-Script:
| Agent | Kernverantwortung | Input | Output |
|---|---|---|---|
| Dreamer-Agent | Möglichkeitsraum eröffnen, radikale Optionen generieren | Challenge-Statement, Kontext, gewünschter Nutzen | 3–5 Lösungsansätze + Payoff-Statements + Zukunftsbild |
| Realist-Agent | Umsetzungsplan erstellen, Ressourcen klären | Dreamer-Output, Constraints, vorhandene Ressourcen | 1–2 priorisierte Konzepte + Schrittplan + Erfolgskriterien |
| Kritiker-Agent | Qualität sichern, Schwachstellen identifizieren, Ökologie prüfen | Realist-Plan (frischer Kontext, kein Dreamer-Wissen) | Schwachstellen + Ökologie-Check + „Wie können wir...?“-Fragen + Go/Iterate-Empfehlung |
| Orchestrator | Zyklen steuern, Artefakte weiterreichen, Abbruchkriterien prüfen | Ergebnisse aller drei Agenten | Finaler One-Pager oder Trigger für nächsten Durchlauf |
Fünf Regeln für die Praxis
- Phasen strikt trennen. Kein „Übrigens, ist das überhaupt machbar?“ im Dreamer-Prompt. Kein „Und bewerte gleich mit“ im Realist-Prompt. Vermischen ist der häufigste Fehler — bei Menschen wie bei KI.
- Der Kritiker startet immer frisch. Kein Kontext aus der Erzeugungsphase. Kein „Ich weiß, dass du dir bei Abschnitt 3 besonders Mühe gegeben hast“. Der Kritiker kennt nur das Ergebnis und die Prüfkriterien.
- Konkrete Schwellen definieren. Nicht „Ist das gut genug?“, sondern messbare Kriterien: Testabdeckung > 80%, keine Duplikate, alle Pflichtkomponenten vorhanden, Accessibility-Score erreicht. Wenn die Schwelle nicht erreicht wird: zurück zum Dreamer — nicht am bestehenden Ergebnis basteln.
- Bei Blockade: zurück zum Dreamer. Wenn der Kritiker dreimal hintereinander „Iterate“ sagt, liegt das Problem nicht in der Formulierung, sondern im Grundansatz. Dann hilft kein Feinschliff — der Dreamer braucht eine neue Perspektive.
- Ökologie-Fragen sind Pflicht. Der Kritiker muss fragen: Was funktioniert aktuell gut? Was geht durch die Änderung verloren? In KI-Workflows: Welche Konsistenz, welcher Stil, welche Struktur muss erhalten bleiben, auch wenn der Inhalt sich ändert?
Sieben Anwendungsfelder
Das Disney-Modell mit KI-Agenten funktioniert überall dort, wo kreative Arbeit Struktur braucht. Hier sind sieben Bereiche — jeweils mit einem konkreten Beispiel, wie die drei Rollen zusammenspielen.
1. Softwareentwicklung
Dreamer: Architektur-Entwürfe, Feature-Ideen, API-Design-Varianten. Realist: Code schreiben, Tests, Abhängigkeiten klären. Kritiker: Code-Review auf Bugs, Security, Performance, technische Schulden.
2. Produktdesign & UX
Dreamer: Wireframes, Interaktionskonzepte, radikale UI-Ideen ohne Einschränkung. Realist: Design-System-konforme Umsetzung, Responsive-Varianten, Component-Library. Kritiker: Accessibility-Check, Usability-Heuristiken, Brand-Konsistenz.
3. Strategieentwicklung & Business Planning
Dreamer: Geschäftsmodelle, Marktchancen, Blue-Sky-Szenarien. Realist: Finanzplan, Go-to-Market, Ressourcenplanung, KPIs. Kritiker: Risikoanalyse, Wettbewerber-Gegenprüfung, Stakeholder-Impact.
4. Marketingkampagnen
Dreamer: Kampagnenideen, Zielgruppen-Personas, Channel-Mix, Creative Concepts. Realist: Budget, Zeitplan, Content-Kalender, KPIs. Kritiker: Markenkonformität, rechtliche Prüfung, Tonalitäts-Konsistenz über Kanäle hinweg.
5. Content & Textproduktion
Dreamer: Themenideen, Perspektiven, ungewöhnliche Zugänge und Metaphern. Realist: Strukturierte Texte nach Styleguide, SEO-Optimierung, Formatierung. Kritiker: Plagiatsprüfung, Eigenständigkeits-Check, Faktenverifikation, Tonalität.
6. Datenanalyse & Research
Dreamer: Hypothesen generieren, unerwartete Korrelationen suchen, explorative Visualisierungen. Realist: Statistische Methoden wählen, Datenbereinigung, reproduzierbare Pipelines. Kritiker: Methodenkritik, Bias-Check, Reproduzierbarkeit, Signifikanzprüfung.
7. Bildung & Curriculum-Design
Dreamer: Lernziele, innovative Formate, Gamification-Ideen, Blended-Learning-Konzepte. Realist: Lehrplan strukturieren, Materialien erstellen, Assessments designen. Kritiker: Didaktische Prüfung, Lernzielerreichung, Barrierefreiheit, kognitive Überlastung.
Was alle Anwendungsfelder gemeinsam haben
- Der Kritiker startet immer frisch — egal ob er Code, Designs oder Strategien prüft. Kein Kontext aus der Erzeugungsphase.
- Ein standardisierter Kritiker-Prompt sorgt für konsistente Bewertungen über Sessions hinweg. Was in Session 1 mit „Go“ bewertet wird, hat denselben Maßstab wie Session 30.
- Manche Artefakte brauchen einen Durchlauf, andere vier. Die Iterationslogik funktioniert — auch bei 4+ Runden. Runde 3 und 4 sind keine Nachbesserungen, sondern fundamental neue Ansätze.
- Der Dreamer wird mit jeder Iteration braver — wenn man nicht aufpasst. Lösung: Dem Dreamer die Kritiker-Fragen geben, aber nicht die Detailbewertung.
- Dopplungen zwischen verwandten Artefakten sind der häufigste blinde Fleck. Der Kritiker muss explizit prüfen, ob Variante 2 sich genug von Variante 1 unterscheidet.
Fazit: Alte Methode, neue Anwendung
Das Disney-Modell ist kein KI-Framework. Es ist eine Facilitation-Heuristik aus der NLP-Tradition, inspiriert von der Beobachtung eines Trickfilm-Studios. Aber sein Kernprinzip — Denkfunktionen bewusst trennen, sequenzieren und iterieren — löst ein Problem, das bei KI-Workflows genauso real ist wie bei menschlichen Teams.
Die drei Rollen geben einer Agentenarchitektur das, was ihr sonst fehlt: Struktur ohne Starrheit. Der Dreamer darf wild sein, weil der Realist nachher aufräumt. Der Realist darf pragmatisch sein, weil der Kritiker nachher prüft. Und der Kritiker darf streng sein, weil der Dreamer im nächsten Durchlauf eine neue Perspektive liefert.
Das Resultat: Nicht ein einzelner, perfekter Wurf — sondern ein Prozess, der durch Iteration konvergiert. Genau wie Walt Disney es (angeblich) schon wusste.
Quellen & Weiterführendes
- Dilts, R.B., Epstein, T. & Dilts, R.W. (1991): Tools for Dreamers, Meta Publications — insb. Appendix H: „Well-Formedness Conditions for Evaluating New Ideas“
- Hochschule Luzern (o. J.): Disney-Methode — Methodenkarte mit Zonen-Setup und Zeitraster
- Windauer (o. J.): Walt-Disney-Kreativitätsstrategie nach Robert B. Dilts — NLP-nahe Variante mit Meta-Position und Zustandsankern
Verwandte Artikel
KI-Entwicklung 2026: Von Chatbots zu Physical AI
Wo steht KI 2026? OpenAIs 5-Stufen-Modell, Physical AI und der EU AI Act für HR.
WeiterlesenKI & Psychologie: Wenn AI-Modelle auf die Couch müssen
Was passiert, wenn wir KI-Modelle mit psychologischen Tests konfrontieren?
WeiterlesenDie Evolution der KI: AGI durch Entwicklungspsychologie
Wie entwicklungspsychologische Modelle helfen, den Weg zur AGI zu verstehen.
Weiterlesen