AGI: Mythos oder Realität? KI, Bewusstsein und die Rolle des Menschen
Veröffentlicht am 21.07.2025
Wird KI dem Menschen jemals wirklich überlegen sein?
Die Vorstellung einer Artificial General Intelligence (AGI) – also einer Maschine, die so denkt, fühlt und handelt wie ein Mensch – elektrisiert. Zukunftsvisionen dominieren Medienberichte und Investorengespräche. Doch wer genauer hinsieht, erkennt: Die Realität sieht anders aus.
Faszination trifft Realität
Was ist mit Emotionen, Bewusstsein, echtem Verstehen? Fragen, die weit über Rechenleistung und Datentraining hinausgehen. Der Physiker und Unternehmer Klaus Harisch bringt es auf den Punkt:
„Die Maschine wird niemals fühlen."
Harisch verbindet wissenschaftliche Tiefe mit unternehmerischem Pragmatismus. Als Forscher an der LMU München untersucht er Bewusstsein, Kognition und Thermodynamik. Parallel leitet er ein erfolgreiches KI-Startup. Er kennt also Theorie und Praxis – und stellt klare Thesen auf:
Harischs Thesen: Wo KI endet
KI kann rechnen, aber nicht verstehen.
Der menschliche Geist ist kein Algorithmus.
KI hat keine Intention – sie ist Werkzeug, kein Subjekt.
Selbst wenn ein System Emotionen erkennt oder überzeugend simuliert: Es erlebt nichts. Das ist kein philosophisches Detail, sondern eine fundamentale Grenze.
Auch Dr. Ralf Otte stellt in seinem Buch „Künstliche Intelligenz für Dummies" unmissverständlich klar:
„KI simuliert Gefühle. Aber sie fühlt nichts. Und das wird auch so bleiben."
AGI – ein Mythos mit Funktion
Warum also hört man von führenden Köpfen der KI-Industrie immer wieder: „AGI steht kurz bevor"? Die Antwort ist einfach – und ernüchternd:
Investitionen und Hype
Die Aussicht auf AGI ist ein starker Motor für Investitionen. Unternehmen und Forschungseinrichtungen, die in diesem Bereich tätig sind, profitieren davon, wenn die Öffentlichkeit und Investoren an die baldige Realisierung von AGI glauben. Dies führt zu einem erhöhten Kapitalfluss, der die Forschung und Entwicklung beschleunigen kann.
Talentgewinnung
Die Vision von AGI zieht die besten Talente an. Wenn man vermittelt, dass bahnbrechende Entwicklungen bevorstehen, werden talentierte Forscher und Ingenieure motiviert, sich diesen Unternehmen anzuschließen, um Teil dieser revolutionären Entwicklung zu sein.
Technologischer Fortschritt
Auch wenn AGI noch in der Ferne liegen mag, machen spezifische KI-Anwendungen enorme Fortschritte. Die Erfolge in Bereichen wie Large Language Models (LLMs), Bilderkennung und autonomen Systemen könnten fälschlicherweise als Vorboten einer umfassenden AGI interpretiert werden. Die Kommunikation einer bevorstehenden AGI kann auch dazu dienen, diese Einzelerfolge in einen größeren, zukunftsweisenden Kontext zu stellen.
Weitere Gründe für das AGI-Narrativ
Narrative Kontrolle und Vision
Führungskräfte prägen oft die Narrative in ihrer Branche. Indem sie die Vision einer bevorstehenden AGI teilen, lenken sie die Diskussion, setzen Schwerpunkte für die Forschung und beeinflussen die öffentliche Wahrnehmung von KI. Es kann auch ein Ausdruck von echtem Optimismus und Glauben an die eigene Arbeit sein.
Druck und Wettbewerb
Der Wettbewerb in der KI-Branche ist immens. Unternehmen könnten das Gefühl haben, den Fortschritt ihrer Konkurrenten übertreffen oder zumindest mithalten zu müssen, indem sie ebenfalls aggressive Zeitpläne für AGI kommunizieren.
Definitionssache
Die Definition von AGI ist nicht statisch und kann sich im Laufe der Zeit ändern. Was heute als AGI gilt, könnte morgen anders definiert werden, wenn bestimmte Meilensteine erreicht sind. Manchmal wird auch eine enge Definition von AGI verwendet, die erreichbarer erscheint.
Zusammenfassend lässt sich sagen, dass die wiederholte Botschaft von einer bevorstehenden AGI sowohl auf echtem Fortschritt als auch auf strategischen Überlegungen basieren kann, die darauf abzielen, Investitionen anzuziehen, Talente zu gewinnen und die öffentliche Wahrnehmung der KI-Entwicklung zu steuern.
Die Wahrheit: AGI ist derzeit kein reales System, sondern ein strategisches Narrativ.
Realität statt Wunschdenken
Führende Wissenschaftler bestätigen:
John Searle
Symbolverarbeitung ist kein Verstehen.
David Chalmers
LLMs zeigen Output – kein Bewusstsein.
Johannes Kleiner
Bewusstsein ist nicht deterministisch.
Christof Koch
Bewusstsein ist biologisch – nicht maschinell simulierbar.
Fei-Fei Li
KI hat keine Intuition, keine Empathie, keine Innenwelt.
Andrew Ng
AGI ist überbewertet – Spezial-KI ist der reale Hebel.
Bill Gates
Maschinen sind Hilfsmittel, keine denkenden Subjekte.
Was bedeutet das für uns?
Vielleicht müssen wir AGI gar nicht „erreichen".
Vielleicht ist der Mensch – mit Bewusstsein, Intuition und moralischem Kompass – nicht überholbar, sondern unersetzbar.
Und vielleicht ist genau das die gute Nachricht:
Wir gestalten die Zukunft – nicht Maschinen.
Vertiefung und Quellen
Klaus Harisch, „Why Artificial General Intelligence is and Remains a Fiction“