KI-Entwicklung 2026: Von Chatbots zu Physical AI — und was der EU AI Act für HR bedeutet
Die KI-Entwicklung beschleunigt sich rasant. Wir ordnen ein: Wo stehen wir auf OpenAIs 5-Stufen-Modell, warum Physical AI die nächste Revolution ist — und was der EU AI Act konkret für Recruiting und Personalentwicklung verändert.
Foto: Ekō (CC BY 2.0) via Wikimedia Commons
Teil 1: Die fünf Stufen der KI-Entwicklung
Im Juli 2024 präsentierte OpenAI-CEO Sam Altman seinen Mitarbeitern ein internes Rahmenmodell, das den Weg zur künstlichen Superintelligenz in fünf Stufen beschreibt. Bloomberg berichtete am 11. Juli 2024 erstmals darüber. Das Modell ist seitdem zum wichtigsten Referenzrahmen geworden, um einzuordnen, wo wir auf der KI-Entwicklungskurve stehen.
Die fünf Stufen
Chatbots
KI mit Sprachfähigkeiten. ChatGPT, Claude und Gemini führen natürliche Gespräche, übersetzen, fassen zusammen und generieren Texte.
Reasoners
KI mit Problemlösungsfähigkeiten auf PhD-Niveau. OpenAIs o1/o3, Claudes erweitertes Denken und Gemini 2.5 Pro lösen komplexe Aufgaben durch schrittweises Reasoning.
Agents
KI, die selbstständig handelt. Claude Code schreibt und testet Software autonom, Devin erledigt komplette Programmier-Aufgaben, OpenAI Operator navigiert das Web. Ab 2027: vollautomatisierte Softwareentwicklung erzeugt rekursive, exponentielle Verbesserung.
Innovators
KI erfindet: wissenschaftliche Forschung, neue Materialien, bessere Algorithmen, Medikamente. Der Übergang von AGI zu ASI — künstliche Superintelligenz.
Organizations
KI führt komplette Organisationen — koordiniert Mitarbeiter, Software-Agenten und physische Systeme. Nicht Science-Fiction: Die Infrastruktur dafür wird jetzt gebaut.
Wo stehen wir heute? Anfang 2026 befinden wir uns fest auf Stufe 2 und am Beginn von Stufe 3. Reasoning-Modelle wie OpenAIs o3 und Claudes erweitertes Denken liefern zuverlässig komplexe Analysen. Gleichzeitig sind erste echte Agenten produktiv: Claude Code erreichte Ende 2025 über 1 Milliarde Dollar Jahresumsatz, Devin hat eine PR-Merge-Rate von 67%, und Anthropics Model Context Protocol (MCP) wurde im März 2026 in die Linux Foundation überführt — ein De-facto-Standard für die Kommunikation zwischen KI-Agenten und Tools.
Physical AI: Die zweite Achse
OpenAIs Modell beschreibt eine kognitive Fähigkeitsleiter: von Sprache über Denken zu Handeln, Erfinden und Führen. Aber es fehlt eine Dimension: Wo handelt die KI?
Physical AI — auch „Embodied AI" — beschreibt Systeme, die die physische Welt wahrnehmen, verstehen und in ihr handeln. NVIDIA definiert es als „autonome Maschinen, die in der realen Welt komplexe Aktionen ausführen". Das sind keine futuristischen Konzepte mehr: Am 16. März 2026 berichtete Reuters, dass Skild AI und NVIDIA ein universelles „Roboter-Gehirn" auf Foxconns Blackwell-GPU-Fertigungslinien in Houston einsetzen — die erste kommerzielle Großanwendung generalisierter Physical AI.
Das ergibt ein Zwei-Achsen-Modell:
| Achse 1: Kognitive Autonomie | Achse 2: Verkörperung |
|---|---|
| 1. Chatbots — Sprache | rein digital (Text, Code, Entscheidungen) |
| 2. Reasoners — Denken | |
| 3. Agents — Handeln in Software | 3b. Physical Agents — Handeln in der physischen Welt |
| 4. Innovators — Erfinden | KI entwirft bessere Roboter, Materialien, Steuerungen |
| 5. Organizations — Führen | KI orchestriert Flotten, Fabriken, Lieferketten |
Physical AI: Was passiert gerade konkret?
- NVIDIA baut das Ökosystem: Cosmos (Weltmodelle für Roboter-Training), Isaac Lab 3.0 (Roboter-Simulation), GR00T N1.7 (Humanoid-Foundation-Model) und Omniverse als „Betriebssystem für Physical AI". Partnerschaften umfassen bereits über 2 Millionen Roboter.
- Boston Dynamics stellte im Januar 2026 auf der CES die Produktionsversion von Atlas vor — der Übergang vom Forschungsroboter zum Unternehmensprodukt. Test bei Hyundai, geplante Stückzahl: Zehntausende.
- Tesla Optimus Gen 3 ging im Februar 2026 in Produktion. Noch im Lernmodus, aber Zielpreis: 20.000–30.000 Dollar pro Einheit.
- Figure AI expandiert Alpha-Tests mit Figure 03 für Hochvolumen-Fertigung.
- Skild AI (Bewertung: 14 Mrd. Dollar) entwickelt ein universelles Roboter-Gehirn: „any robot, any task, one brain".
- China treibt Physical AI mit enormem Tempo voran: Unitree liefert mit dem G1 und H1 bereits kommerziell verfügbare humanoide Roboter zu einem Bruchteil westlicher Preise (ab ca. 16.000 Dollar). Agibot, Galbot und Fourier Intelligence skalieren ebenfalls aggressiv. Die chinesische Regierung hat Physical AI als strategische Priorität definiert — mit dem Ziel, bis 2027 Massenproduktion humanoider Roboter zu erreichen.
Die kompakte Formel: Physical AI beginnt dort, wo Agents nicht mehr nur Software bedienen, sondern durch Sensoren und Aktoren in der realen Welt handeln. Sie ist keine spätere Ersatzstufe, sondern die verkörperte Erweiterung von Stufe 3–5.
Teil 2: EU AI Act — Was HR jetzt wissen muss
Während sich die KI-Fähigkeiten exponentiell entwickeln, zieht die Regulierung nach. Der EU AI Act ist seit August 2024 in Kraft und wird stufenweise anwendbar. Für HR ist das kein abstraktes Thema: Recruiting-KI ist explizit als Hochrisiko eingestuft.
Was ist Hochrisiko im Recruiting?
Annex III des AI Act nennt „Employment, Workers Management and Access to Self-Employment" als Hochrisiko-Bereich. Konkret fallen darunter KI-Systeme für:
- Targeted Job Advertisements — gezielte Stellenanzeigen per Algorithmus
- Analyse und Filterung von Bewerbungen — CV-Screening, Matching, Ranking
- Bewertung von Kandidaten — Video-Interview-Scoring, Assessment-KI
- Beförderung, Kündigung, Leistungsbewertung — KI in Personalentscheidungen
Was ist verboten?
- Emotionserkennung am Arbeitsplatz — Mimik-/Tonfall-Analyse in Bewerbungsgesprächen oder am Arbeitsplatz (enge Ausnahmen nur für medizinische/Sicherheitszwecke)
- Social Scoring — Bewertung von Personen auf Basis ihres Sozialverhaltens mit nachteiligen Folgen
- Biometrische Kategorisierung — Ableitung sensibler Attribute (Ethnie, Religion, sexuelle Orientierung) aus biometrischen Daten
Das ist besonders relevant, weil manche Recruiting-Tools historisch Emotionsanalyse als „Assessment-Feature" vermarktet haben. Deutsche Datenschutzbehörden stufen das explizit als problematisch ein.
Zeitplan: Was gilt ab wann?
| Datum | Was wird anwendbar |
|---|---|
| 2. Feb. 2025 | Verbote (Emotion-Recognition, Social Scoring) + AI-Literacy-Pflicht |
| 2. Aug. 2025 | Governance-Regeln, GPAI-Regeln |
| 2. Aug. 2026 | Hochrisiko-Pflichten voll anwendbar — das betrifft Recruiting-KI direkt |
| Dez. 2027? | Diskutierte mögliche Verschiebung (Digital Omnibus) — unsicher, nicht darauf planen |
Die 5 operativen Pflichten für HR
Was muss HR konkret tun, wenn Recruiting-KI im Einsatz ist? Fünf Handlungsfelder:
1 KI-Inventar und Klassifizierung
Erstellen Sie ein Recruiting-KI-Register: Jedes Tool und Feature, das Bewerbungen analysiert, Bewerber rankt, Interview-Content auswertet oder Anzeigen targeted. Dokumentieren Sie die Rolle: Sind Sie Deployer (Anwender) oder Provider (Anbieter)? Die Pflichten verschieben sich, wenn Sie Systeme wesentlich modifizieren.
2 Human-in-the-Loop — aber wirklich
Der AI Act verlangt menschliche Aufsicht durch kompetente Personen. Die Datenschutzkonferenz (DSK) betont: „Eine lediglich formelle Beteiligung eines Menschen ist nicht ausreichend." Das operative Designprinzip: Kein One-Click-Reject auf KI-Score. Der Mensch braucht echten Entscheidungsspielraum, Autorität und Zeit zur Prüfung.
3 Logs und Nachweise
KI-Outputs, Review-Datum, Reviewer und Entscheidungsgrund dokumentieren. Automatisch generierte Logs mindestens 6 Monate aufbewahren (Art. 26 AI Act). Bei jeder KI-gestützten Entscheidung: Wer hat geprüft, was war der KI-Vorschlag, was war die menschliche Entscheidung?
4 Transparenz im richtigen Moment
Der KI-Hinweis gehört in den Prozess, nicht in die Absage. Konkret: Im Bewerbungsformular oder bei der ersten Kommunikation. Bei Chatbots oder Interview-Bots: Hinweis „Sie interagieren mit KI" spätestens bei der ersten Interaktion. „Am Ende in der Absage" ist regelmäßig zu spät.
5 Auskunft und Erklärung
Bewerber haben Auskunftsrechte (DSGVO: Antwort binnen 1 Monat). Zusätzlich schafft der AI Act ein Recht auf Erläuterung der Rolle des KI-Systems bei Entscheidungen mit rechtlicher Wirkung (Art. 86). Bauen Sie ein einheitliches Playbook: DSGVO-Auskunft plus AI-Act-Erklärung in einem Prozess.
Und die esc Potenzialanalysen?
Zwei Produkte, ein Prinzip — die Diagnostik ist KI-frei:
- Die esc Potenzialanalyse misst Metaprogramme und Wertesysteme über ein wissenschaftlich normiertes Forced-Choice-Verfahren (50.000+ Datensätze, seit 2009). Die Analyse kann Bewerber auch in Bezug auf ein Idealprofil ranken — aber dieses Ranking basiert auf deterministischer Algorithmik (normierter Vergleich mit der Referenzgruppe), nicht auf KI. Es kommt keine künstliche Intelligenz zum Einsatz, die Personen bewertet, scored oder interpretiert.
- Die esc Kompetenzentwicklung arbeitet mit Selbst- und Fremdeinschätzung anhand konkreter Verhaltensanker. Die Abweichungen zwischen Selbst- und Fremdbild werden direkt berechnet — ohne KI-Interpretation. Wo KI zum Einsatz kommt — etwa bei der Erstellung von Kompetenzprofilen oder der Formulierung von Verhaltensankern — handelt es sich um assisting AI: Sie unterstützt den Arbeitsprozess, bewertet aber keine Personen. Das ist kein Hochrisiko im Sinne des AI Act.
KI kommt bei beiden Produkten ausschließlich optional im Workflow zum Einsatz: beim Formulieren von Textbausteinen, beim Strukturieren von Report-Elementen oder bei der Zusammenfassung. Nie in der Diagnostik, nie in der Bewertung, nie bei der Entscheidung.
Fazit: Was jetzt zu tun ist
Die KI-Entwicklung beschleunigt sich auf beiden Achsen — kognitiv und physisch. Für HR bedeutet das:
- Verstehen, wo die eigenen Tools auf der Risikoskala stehen (assisting vs. Hochrisiko)
- Sofort prüfen: Keine Emotionserkennung im Einsatz? (Seit Feb. 2025 verboten)
- Bis August 2026 vorbereiten: KI-Register, Human-in-the-Loop-Design, Log-Konzept, Transparenz-Prozess, Auskunfts-Playbook
- Nicht abwarten: Die mögliche Verschiebung auf Dezember 2027 ist unsicher und kein Grund zur Untätigkeit
Wer Recruiting-KI nutzt, sollte Compliance als Produkt verstehen: klare Rollen, echte Reviews, nachvollziehbare Dokumentation und saubere Transparenz. Dann stärkt KI nicht nur Effizienz, sondern auch Vertrauen.
KI-Einsatz in HR richtig aufsetzen?
Unsere Potenzialanalysen und Kompetenzprofile nutzen KI nur dort, wo sie unterstützt — nie in der Diagnostik. Wissenschaftlich normiert, DSGVO-konform, AI-Act-ready.
Discover Account anlegenQuellen und weiterführende Links
- Bloomberg: „OpenAI Sets Levels to Track Progress Toward Superintelligent AI" (11. Juli 2024)
- NVIDIA: What is Physical AI?
- Reuters: „Skild AI, Nvidia deploy robot brain on Blackwell assembly lines" (16. März 2026)
- EU AI Act: Annex III — High-Risk AI Systems
- EU AI Act: Art. 26 — Deployer Obligations
- DSK: Orientierungshilfe KI und Datenschutz (Mai 2024)
- EDPB: SME Guide — Respect individuals' rights
Verwandte Artikel
KI & Psychologie: Wenn AI-Modelle auf die Couch müssen
Was passiert, wenn wir KI-Modelle mit psychologischen Tests konfrontieren?
WeiterlesenDie Evolution der KI: AGI durch Entwicklungspsychologie
Wie entwicklungspsychologische Modelle helfen, den Weg zur AGI zu verstehen.
WeiterlesenKI-Implementierung seit 2022: Erfolgsgeschichten
Konkrete Beispiele für erfolgreiche KI-Implementierungen im DACH-Raum und den USA.
Weiterlesen