KI & Digitalisierung

KI-Entwicklung 2026: Von Chatbots zu Physical AI — und was der EU AI Act für HR bedeutet

Die KI-Entwicklung beschleunigt sich rasant. Wir ordnen ein: Wo stehen wir auf OpenAIs 5-Stufen-Modell, warum Physical AI die nächste Revolution ist — und was der EU AI Act konkret für Recruiting und Personalentwicklung verändert.

17. März 2026 Ralph Köbler 8 Min. Lesezeit
EU AI Act — Broschüre vor dem Europäischen Parlament in Straßburg Foto: Ekō (CC BY 2.0) via Wikimedia Commons
In Kürze: OpenAI hat im Juli 2024 ein 5-Stufen-Modell der KI-Entwicklung vorgestellt — von Chatbots bis zu KI-geführten Organisationen. Anfang 2026 stehen wir am Übergang von Stufe 2 (Reasoners) zu Stufe 3 (Agents). Gleichzeitig entsteht mit Physical AI eine zweite Entwicklungsachse: KI, die nicht nur digital handelt, sondern in der physischen Welt. Für HR wird parallel der EU AI Act relevant: Recruiting-KI ist als Hochrisiko eingestuft — mit konkreten Pflichten ab August 2026.

Teil 1: Die fünf Stufen der KI-Entwicklung

Im Juli 2024 präsentierte OpenAI-CEO Sam Altman seinen Mitarbeitern ein internes Rahmenmodell, das den Weg zur künstlichen Superintelligenz in fünf Stufen beschreibt. Bloomberg berichtete am 11. Juli 2024 erstmals darüber. Das Modell ist seitdem zum wichtigsten Referenzrahmen geworden, um einzuordnen, wo wir auf der KI-Entwicklungskurve stehen.

Die fünf Stufen

1
2023/2024
Chatbots

KI mit Sprachfähigkeiten. ChatGPT, Claude und Gemini führen natürliche Gespräche, übersetzen, fassen zusammen und generieren Texte.

2
2024/2025
Reasoners

KI mit Problemlösungsfähigkeiten auf PhD-Niveau. OpenAIs o1/o3, Claudes erweitertes Denken und Gemini 2.5 Pro lösen komplexe Aufgaben durch schrittweises Reasoning.

3
2026/2027 — wir sind hier
Agents

KI, die selbstständig handelt. Claude Code schreibt und testet Software autonom, Devin erledigt komplette Programmier-Aufgaben, OpenAI Operator navigiert das Web. Ab 2027: vollautomatisierte Softwareentwicklung erzeugt rekursive, exponentielle Verbesserung.

4
ab ~2028
Innovators

KI erfindet: wissenschaftliche Forschung, neue Materialien, bessere Algorithmen, Medikamente. Der Übergang von AGI zu ASI — künstliche Superintelligenz.

5
bis ~2030
Organizations

KI führt komplette Organisationen — koordiniert Mitarbeiter, Software-Agenten und physische Systeme. Nicht Science-Fiction: Die Infrastruktur dafür wird jetzt gebaut.

Wo stehen wir heute? Anfang 2026 befinden wir uns fest auf Stufe 2 und am Beginn von Stufe 3. Reasoning-Modelle wie OpenAIs o3 und Claudes erweitertes Denken liefern zuverlässig komplexe Analysen. Gleichzeitig sind erste echte Agenten produktiv: Claude Code erreichte Ende 2025 über 1 Milliarde Dollar Jahresumsatz, Devin hat eine PR-Merge-Rate von 67%, und Anthropics Model Context Protocol (MCP) wurde im März 2026 in die Linux Foundation überführt — ein De-facto-Standard für die Kommunikation zwischen KI-Agenten und Tools.

Physical AI: Die zweite Achse

OpenAIs Modell beschreibt eine kognitive Fähigkeitsleiter: von Sprache über Denken zu Handeln, Erfinden und Führen. Aber es fehlt eine Dimension: Wo handelt die KI?

Physical AI — auch „Embodied AI" — beschreibt Systeme, die die physische Welt wahrnehmen, verstehen und in ihr handeln. NVIDIA definiert es als „autonome Maschinen, die in der realen Welt komplexe Aktionen ausführen". Das sind keine futuristischen Konzepte mehr: Am 16. März 2026 berichtete Reuters, dass Skild AI und NVIDIA ein universelles „Roboter-Gehirn" auf Foxconns Blackwell-GPU-Fertigungslinien in Houston einsetzen — die erste kommerzielle Großanwendung generalisierter Physical AI.

Die Schlüsselerkenntnis: Physical AI ist keine sechste Stufe nach „Organizations". Sie ist eine zweite Achse — die Verkörperung der KI. Normale Agents handeln in Software; Physical-AI-Agents handeln über Sensoren, Aktoren, Roboterarme und Fahrzeuge in der realen Welt.

Das ergibt ein Zwei-Achsen-Modell:

Achse 1: Kognitive Autonomie Achse 2: Verkörperung
1. Chatbots — Spracherein digital (Text, Code, Entscheidungen)
2. Reasoners — Denken
3. Agents — Handeln in Software3b. Physical Agents — Handeln in der physischen Welt
4. Innovators — ErfindenKI entwirft bessere Roboter, Materialien, Steuerungen
5. Organizations — FührenKI orchestriert Flotten, Fabriken, Lieferketten

Physical AI: Was passiert gerade konkret?

  • NVIDIA baut das Ökosystem: Cosmos (Weltmodelle für Roboter-Training), Isaac Lab 3.0 (Roboter-Simulation), GR00T N1.7 (Humanoid-Foundation-Model) und Omniverse als „Betriebssystem für Physical AI". Partnerschaften umfassen bereits über 2 Millionen Roboter.
  • Boston Dynamics stellte im Januar 2026 auf der CES die Produktionsversion von Atlas vor — der Übergang vom Forschungsroboter zum Unternehmensprodukt. Test bei Hyundai, geplante Stückzahl: Zehntausende.
  • Tesla Optimus Gen 3 ging im Februar 2026 in Produktion. Noch im Lernmodus, aber Zielpreis: 20.000–30.000 Dollar pro Einheit.
  • Figure AI expandiert Alpha-Tests mit Figure 03 für Hochvolumen-Fertigung.
  • Skild AI (Bewertung: 14 Mrd. Dollar) entwickelt ein universelles Roboter-Gehirn: „any robot, any task, one brain".
  • China treibt Physical AI mit enormem Tempo voran: Unitree liefert mit dem G1 und H1 bereits kommerziell verfügbare humanoide Roboter zu einem Bruchteil westlicher Preise (ab ca. 16.000 Dollar). Agibot, Galbot und Fourier Intelligence skalieren ebenfalls aggressiv. Die chinesische Regierung hat Physical AI als strategische Priorität definiert — mit dem Ziel, bis 2027 Massenproduktion humanoider Roboter zu erreichen.

Die kompakte Formel: Physical AI beginnt dort, wo Agents nicht mehr nur Software bedienen, sondern durch Sensoren und Aktoren in der realen Welt handeln. Sie ist keine spätere Ersatzstufe, sondern die verkörperte Erweiterung von Stufe 3–5.


Teil 2: EU AI Act — Was HR jetzt wissen muss

Während sich die KI-Fähigkeiten exponentiell entwickeln, zieht die Regulierung nach. Der EU AI Act ist seit August 2024 in Kraft und wird stufenweise anwendbar. Für HR ist das kein abstraktes Thema: Recruiting-KI ist explizit als Hochrisiko eingestuft.

Was ist Hochrisiko im Recruiting?

Annex III des AI Act nennt „Employment, Workers Management and Access to Self-Employment" als Hochrisiko-Bereich. Konkret fallen darunter KI-Systeme für:

  • Targeted Job Advertisements — gezielte Stellenanzeigen per Algorithmus
  • Analyse und Filterung von Bewerbungen — CV-Screening, Matching, Ranking
  • Bewertung von Kandidaten — Video-Interview-Scoring, Assessment-KI
  • Beförderung, Kündigung, Leistungsbewertung — KI in Personalentscheidungen
Die wichtige Unterscheidung: Nicht jede KI in HR ist automatisch Hochrisiko. Ein Textgenerator, der Stellenanzeigen formuliert, ist typischerweise „assisting AI". Aber sobald KI Bewerber bewertet, scored, rankt oder vorsortiert — und dieses Ergebnis in Personalentscheidungen einfließt — ist man im Hochrisiko-Bereich.

Was ist verboten?

Seit 2. Februar 2025 verboten:
  • Emotionserkennung am Arbeitsplatz — Mimik-/Tonfall-Analyse in Bewerbungsgesprächen oder am Arbeitsplatz (enge Ausnahmen nur für medizinische/Sicherheitszwecke)
  • Social Scoring — Bewertung von Personen auf Basis ihres Sozialverhaltens mit nachteiligen Folgen
  • Biometrische Kategorisierung — Ableitung sensibler Attribute (Ethnie, Religion, sexuelle Orientierung) aus biometrischen Daten

Das ist besonders relevant, weil manche Recruiting-Tools historisch Emotionsanalyse als „Assessment-Feature" vermarktet haben. Deutsche Datenschutzbehörden stufen das explizit als problematisch ein.

Zeitplan: Was gilt ab wann?

DatumWas wird anwendbar
2. Feb. 2025Verbote (Emotion-Recognition, Social Scoring) + AI-Literacy-Pflicht
2. Aug. 2025Governance-Regeln, GPAI-Regeln
2. Aug. 2026Hochrisiko-Pflichten voll anwendbar — das betrifft Recruiting-KI direkt
Dez. 2027?Diskutierte mögliche Verschiebung (Digital Omnibus) — unsicher, nicht darauf planen

Die 5 operativen Pflichten für HR

Was muss HR konkret tun, wenn Recruiting-KI im Einsatz ist? Fünf Handlungsfelder:

1 KI-Inventar und Klassifizierung

Erstellen Sie ein Recruiting-KI-Register: Jedes Tool und Feature, das Bewerbungen analysiert, Bewerber rankt, Interview-Content auswertet oder Anzeigen targeted. Dokumentieren Sie die Rolle: Sind Sie Deployer (Anwender) oder Provider (Anbieter)? Die Pflichten verschieben sich, wenn Sie Systeme wesentlich modifizieren.

2 Human-in-the-Loop — aber wirklich

Der AI Act verlangt menschliche Aufsicht durch kompetente Personen. Die Datenschutzkonferenz (DSK) betont: „Eine lediglich formelle Beteiligung eines Menschen ist nicht ausreichend." Das operative Designprinzip: Kein One-Click-Reject auf KI-Score. Der Mensch braucht echten Entscheidungsspielraum, Autorität und Zeit zur Prüfung.

3 Logs und Nachweise

KI-Outputs, Review-Datum, Reviewer und Entscheidungsgrund dokumentieren. Automatisch generierte Logs mindestens 6 Monate aufbewahren (Art. 26 AI Act). Bei jeder KI-gestützten Entscheidung: Wer hat geprüft, was war der KI-Vorschlag, was war die menschliche Entscheidung?

4 Transparenz im richtigen Moment

Der KI-Hinweis gehört in den Prozess, nicht in die Absage. Konkret: Im Bewerbungsformular oder bei der ersten Kommunikation. Bei Chatbots oder Interview-Bots: Hinweis „Sie interagieren mit KI" spätestens bei der ersten Interaktion. „Am Ende in der Absage" ist regelmäßig zu spät.

5 Auskunft und Erklärung

Bewerber haben Auskunftsrechte (DSGVO: Antwort binnen 1 Monat). Zusätzlich schafft der AI Act ein Recht auf Erläuterung der Rolle des KI-Systems bei Entscheidungen mit rechtlicher Wirkung (Art. 86). Bauen Sie ein einheitliches Playbook: DSGVO-Auskunft plus AI-Act-Erklärung in einem Prozess.

Und die esc Potenzialanalysen?

Zwei Produkte, ein Prinzip — die Diagnostik ist KI-frei:

  • Die esc Potenzialanalyse misst Metaprogramme und Wertesysteme über ein wissenschaftlich normiertes Forced-Choice-Verfahren (50.000+ Datensätze, seit 2009). Die Analyse kann Bewerber auch in Bezug auf ein Idealprofil ranken — aber dieses Ranking basiert auf deterministischer Algorithmik (normierter Vergleich mit der Referenzgruppe), nicht auf KI. Es kommt keine künstliche Intelligenz zum Einsatz, die Personen bewertet, scored oder interpretiert.
  • Die esc Kompetenzentwicklung arbeitet mit Selbst- und Fremdeinschätzung anhand konkreter Verhaltensanker. Die Abweichungen zwischen Selbst- und Fremdbild werden direkt berechnet — ohne KI-Interpretation. Wo KI zum Einsatz kommt — etwa bei der Erstellung von Kompetenzprofilen oder der Formulierung von Verhaltensankern — handelt es sich um assisting AI: Sie unterstützt den Arbeitsprozess, bewertet aber keine Personen. Das ist kein Hochrisiko im Sinne des AI Act.

KI kommt bei beiden Produkten ausschließlich optional im Workflow zum Einsatz: beim Formulieren von Textbausteinen, beim Strukturieren von Report-Elementen oder bei der Zusammenfassung. Nie in der Diagnostik, nie in der Bewertung, nie bei der Entscheidung.

Die Faustregel für HR-Tools: KI im Workflow = assistierend, typischerweise unkritisch. KI in der Diagnostik oder Bewertung = reguliert, meldepflichtig, Hochrisiko. Kritisch wird es erst, wenn KI Personen bewertet statt nur den Arbeitsprozess unterstützt.

Fazit: Was jetzt zu tun ist

Die KI-Entwicklung beschleunigt sich auf beiden Achsen — kognitiv und physisch. Für HR bedeutet das:

  1. Verstehen, wo die eigenen Tools auf der Risikoskala stehen (assisting vs. Hochrisiko)
  2. Sofort prüfen: Keine Emotionserkennung im Einsatz? (Seit Feb. 2025 verboten)
  3. Bis August 2026 vorbereiten: KI-Register, Human-in-the-Loop-Design, Log-Konzept, Transparenz-Prozess, Auskunfts-Playbook
  4. Nicht abwarten: Die mögliche Verschiebung auf Dezember 2027 ist unsicher und kein Grund zur Untätigkeit

Wer Recruiting-KI nutzt, sollte Compliance als Produkt verstehen: klare Rollen, echte Reviews, nachvollziehbare Dokumentation und saubere Transparenz. Dann stärkt KI nicht nur Effizienz, sondern auch Vertrauen.

KI-Einsatz in HR richtig aufsetzen?

Unsere Potenzialanalysen und Kompetenzprofile nutzen KI nur dort, wo sie unterstützt — nie in der Diagnostik. Wissenschaftlich normiert, DSGVO-konform, AI-Act-ready.

Discover Account anlegen

Quellen und weiterführende Links

Verwandte Artikel

KI & Digitalisierung
KI & Psychologie: Wenn AI-Modelle auf die Couch müssen

Was passiert, wenn wir KI-Modelle mit psychologischen Tests konfrontieren?

Weiterlesen
KI & Digitalisierung
Die Evolution der KI: AGI durch Entwicklungspsychologie

Wie entwicklungspsychologische Modelle helfen, den Weg zur AGI zu verstehen.

Weiterlesen
KI & Digitalisierung
KI-Implementierung seit 2022: Erfolgsgeschichten

Konkrete Beispiele für erfolgreiche KI-Implementierungen im DACH-Raum und den USA.

Weiterlesen