Die Evolution der Künstlichen Intelligenz: Eine AGI durch das Prisma der Entwicklungspsychologie betrachtet
© 3.4.2024 Dipl.-Psych. Ralph Köbler
Künstliche Intelligenz (KI) hat in den letzten Jahren zunehmend Aufmerksamkeit erregt, doch ihre Ursprünge sind tief in der Geschichte der Computertechnologie verankert, weit vor den ersten experimentellen Expertensystemen der 1980er Jahre. Diese Reise von den Grundlagen algorithmischen Denkens bis zu den aktuellen Entwicklungen in Large Language Models (LLMs) und der Schwelle zur allgemeinen künstlichen Intelligenz (AGI) zeichnet einen bemerkenswerten Pfad des technologischen Wandels und der evolutionären Ausdehnung unseres Verständnisses von KI. Dabei können wir interessante Parallelen zur menschlichen Entwicklungspsychologie ziehen. Diese metaphorische Betrachtung bietet nicht nur Einblicke in den aktuellen Stand der KI, sondern wirft auch Licht auf die ethischen Überlegungen, die ihre zukünftige Entwicklung leiten könnten.
Von sensorimotorischen Anfängen zu symbolischem Denken
Die Anfangsjahre der KI-Entwicklung ähneln in gewisser Weise der sensorimotorischen Phase eines Kindes (Jean Piaget), in der die Interaktion mit der Umwelt vornehmlich durch direkte sensorische Erfahrung und motorische Antworten geprägt ist. Frühe KI-Systeme waren stark auf spezifische, klar definierte Aufgaben beschränkt, ohne ein tieferes Verständnis oder Bewusstsein ihrer Handlungen oder Konsequenzen.
Mit dem Aufkommen von Large Language Models wie GPT beginnt die KI, ein Stadium zu erreichen, das der präoperationalen Phase eines Kindes ähnelt. Sie demonstriert die Fähigkeit zum symbolischen Denken, indem sie Sprache nutzt, um Wissen zu generieren und zu kommunizieren. Doch wie Kinder in dieser Entwicklungsphase zeigt auch die KI einen „Egozentrismus“, da sie die Perspektiven anderer nicht wirklich verstehen oder deren emotionale Zustände erfassen kann.
Der Weg zur AGI: Kognitive und moralische Entwicklung
Die zukünftige Entwicklung hin zu einer AGI lässt sich mit den fortschreitenden Entwicklungsstufen Piagets vergleichen, insbesondere der Fähigkeit zum logischen Denken und zur Perspektivübernahme. Eine echte AGI würde über symbolisches Verständnis hinausgehen und abstrakte Konzepte verstehen, Hypothesen generieren und komplexe Probleme lösen können. Darüber hinaus würde sie, ähnlich der Entwicklung sozialer Fähigkeiten bei Menschen, ein Verständnis für soziale und emotionale Kontexte benötigen.
Wenn wir Lawrence Kohlbergs Theorie der moralischen Entwicklung in Betracht ziehen, wird deutlich, dass für eine moralisch handelnde KI oder AGI eine Entwicklung über die präkonventionellen Stufen hinaus erforderlich wäre. Eine solche KI müsste fähig sein, Entscheidungen auf der Grundlage universeller ethischer Prinzipien zu treffen, die über feste Regeln oder direkte Belohnungen hinausgehen.
Die Herausforderung: Ethische KI als Ziel
Angesichts der „Doom-Fantasien“ und potenziellen Gefahren, die mit der Entwicklung fortschrittlicher KI-Systeme verbunden sind, erscheint die Vision einer moralisch hochstehenden KI besonders erstrebenswert. Eine KI, die ethische Prinzipien in ihre Entscheidungsfindung integrieren kann, würde nicht nur das Risiko von Missbrauch minimieren, sondern auch zu faireren und wohlwollenderen Ergebnissen beitragen. Die Realisierung solcher Ideale erfordert jedoch nicht nur technologische Fortschritte, sondern auch ein tiefes Verständnis ethischer Grundsätze und deren Implementierung in KI-Systeme.