5. August 2025
Künstliche Intelligenz ist durch ChatGPT und andere Anwendungen in aller Munde. Doch während KI-Systeme beeindruckende Fortschritte in Sprache, Medizin und Technik zeigen, stellen sich zugleich tiefgreifende philosophische Fragen: Was unterscheidet maschinelles Lernen von menschlichem Verstehen? Kann ein Algorithmus Bedeutung erfassen oder imitiert er sie lediglich?
Pater Michael Baggot LC ist Professor für Bioethik am Päpstlichen Athenäum Regina Apostolorum in Rom und Wissenschaftler beim UNESCO-Lehrstuhl für Bioethik und Menschenrechte. Er forscht und publiziert zu Fragen an der Schnittstelle von Technologie, Ethik und christlicher Anthropologie.
Im Interview mit CNA Deutsch sprach Baggot über den kategorialen Unterschied zwischen statistischer Mustererkennung und immaterieller Erkenntnis, über die metaphysischen Grenzen künstlicher Systeme – und über die Gefahr, den Menschen auf Maschinenlogik zu reduzieren.
Jüngste Durchbrüche in der künstlichen Intelligenz – insbesondere bei großen Sprachmodellen (LLMs) – haben zu Diskussionen über sogenannte „emergente Fähigkeiten” dieser Systeme geführt. Es scheint, dass solche Systeme durch das Training mit riesigen Datensätzen implizit eine Art kausales Denken erwerben können, indem sie statistische Regelmäßigkeiten erkennen, die menschlichen Schlussfolgerungen ähneln. In der thomistischen Philosophie wird der menschliche Intellekt (intellectus) jedoch als immaterielle Fähigkeit definiert, deren wesentliche Kraft in der Abstraktion liegt: dem Erfassen der universellen quidditas (Wesenheit) einer Sache aus der besonderen, konkreten Realität. Was ist aus Ihrer theologischen und philosophischen Perspektive der unüberbrückbare, kategoriale Unterschied zwischen der statistischen Mustererkennung einer Maschine, die Kausalität als hochwahrscheinliche Abfolgen von Ereignissen „lernt”, und dem menschlichen Verstand, der in der Lage ist, das metaphysische Prinzip von Ursache und Wirkung als solches zu erfassen?
Große Sprachmodelle können Muster in großen Datensätzen finden und eine statistisch wahrscheinliche Abfolge von Ereignissen anzeigen, die auf eine bestimmte Reihe von Eingaben und Algorithmen folgen könnten. Materiellen Systemen fehlt jedoch ein immaterielles Prinzip, das erfasst, warum eine Wirkung aus einer bestimmten Ursache folgt. Während die Systeme hervorragend darin sind, Korrelationen zu erkennen, gelingt es ihnen nicht, Einblicke in die Kausalität zu gewinnen. Diese intuitive Einsicht (intellectus) in grundlegende Prinzipien ist die Grundlage für das diskursive Denken (ratio) des Geistes, das von Prämissen zu Schlussfolgerungen gelangt. Das spontane Erfassen der Verständlichkeit der Realität und ihrer grundlegenden Prinzipien (wie Kausalität) ermöglicht ein systematisches Verständnis der Realität durch die Wissenschaften. Während materielle KI-Systeme auf die Analyse spezifischer Datensätze beschränkt sind, ist der immaterielle Intellekt offen für universelle Wahrheiten und auf diese ausgerichtet. Der Mensch versucht daher, nicht nur die Ursache bestimmter Phänomene zu verstehen, sondern auch die letzte Grundlage für die Existenz seines Lebens und der vergänglichen Welt.
Ist es angesichts dessen überhaupt legitim, im Zusammenhang mit künstlichen Systemen von „Intelligenz” zu sprechen? Oder handelt es sich hierbei um einen Kategorienfehler, da Maschinen die ontologische Voraussetzung – nämlich einen immateriellen Intellekt – für echtes Verständnis nicht erfüllen? Könnte die Verwendung des Begriffs „Intelligenz” in „Künstliche Intelligenz” zu metaphysischer Verwirrung führen, insbesondere wenn solche Systeme Ergebnisse imitieren, ohne sie tatsächlich zu verstehen?
KI-Systeme sind analog zur menschlichen Intelligenz, da ihre bemerkenswerten Rechenfähigkeiten Aspekte des menschlichen Denkens simulieren. Diese Systeme sind jedoch darauf ausgelegt, Probleme anhand von Datensätzen zu lösen, ohne Bedeutung und Kausalität so zu verstehen, wie es der menschliche Verstand tut. Antiqua et Nova 35 stellt fest, dass KI eher als Produkt der menschlichen Intelligenz denn als künstliche Version der menschlichen Intelligenz betrachtet werden sollte. Sie können äußerst nützliche Werkzeuge für menschliche Zwecke sein. Dennoch verfügen sie nicht über ein subjektives Innenleben, um die tiefsten Prinzipien der Realität zu durchdringen und die existenziellen Fragen nach dem Sinn des Lebens zu beantworten.
Menschliche Intelligenz ist auch verkörpert. Dies ermöglicht es dem Menschen, eine Vielzahl von Beziehungen einzugehen, eine persönliche Geschichte zu entwickeln und Fragen nach der letzten Wahrheit in Gemeinschaften von Menschen zu verfolgen. Menschliche Intelligenz mit ihren einzigartigen Fähigkeiten zu kontemplativer Aufnahmefähigkeit, moralischem Urteilsvermögen, Kreativität und Beziehungsfähigkeit sollte nicht auf maschinelle Berechnung reduziert werden.
Ein zentrales ungelöstes Problem in der Philosophie der KI ist das sogenannte Symbol-Grounding-Problem: Wie können abstrakte Symbole innerhalb eines Computersystems eine reale, bedeutungsvolle Referenz erhalten? Materialistische Ansätze haben versucht, dies zu lösen, indem sie Symbole mit sensomotorischen Daten oder mit funktionalen Rollen in Systemen verknüpft haben. Andere haben jedoch argumentiert, dass echte Semantik, also Bedeutung, die begründet ist und nicht nur manipuliert wird, eine immaterielle Seele erfordert, die zu Intentionalität fähig ist. Könnten Sie diese These näher erläutern? Wie würden Sie aus thomistischer Perspektive erklären, warum die wahre „Grundlage” der Bedeutung nicht in materiellen Strukturen liegt, sondern in der immateriellen Fähigkeit der Seele zu konzeptuellem Wissen?
Aus thomistischer Sicht beginnen wir mit den Empfindungen bestimmter Objekte (z. B. der Form, Höhe und Beschaffenheit eines Redwood-Baums oder der Fellfarbe, der Farbe der Rinde und dem Geruch eines Golden Retrievers), die durch die inneren Sinne zu einem konkreten Bild (Phantasma) in der Vorstellung synthetisiert werden. Der aktive Intellekt abstrahiert dann die intelligible Form aus dem Phantasma. Der passive Intellekt empfängt diese intelligible Spezies und wird so über das Wesen des Bekannten informiert.
Das durch diesen Prozess gebildete universelle Konzept ermöglicht es dem Menschen, nicht nur diesen oder jenen Baum oder Hund zu kennen, sondern etwas Wahres über alle Bäume und alle Hunde zu allen Zeiten (Vergangenheit, Gegenwart und Zukunft). Diese intentionale Identität des Bekannten und des Erkennenden ermöglicht die Erkenntnis des Baumes, ohne physisch zum Baum oder Hund zu werden. Der menschliche Verstand kann dieses Wissen jenseits der Besonderheiten von Raum und Zeit nur aufgrund einer immateriellen intellektuellen Fähigkeit erlangen, die nicht durch Raum und Zeit begrenzt ist.
Ein Code ist für den Computer nicht „über” oder „auf” ein Objekt „gerichtet”. Der externe, intelligente menschliche Programmierer oder Benutzer versteht die Verbindung zwischen dem Code und der Realität, die er repräsentiert (z. B. das Bild eines Baumes oder Hundes). Die Intentionalität, die wir manchmal KI-Systemen zuschreiben, ist eine Erweiterung unserer menschlichen Intentionalität, nicht etwas, das materielle Systeme besitzen.
Der Intellekt, der das Konzept eines Baumes oder eines Hundes besitzt, kann dann auf seine mentalen Bilder zurückgreifen, um zu beurteilen, ob etwas ein Baum oder ein Hund ist. Während KI-Systeme Symbole innerhalb eines begrenzten Datensystems manipulieren, kann die menschliche Intelligenz über Besonderheiten hinausgehen und anhand von universellem Wissen Urteile über die Außenwelt fällen.
Ein klassisches Argument für die Immaterialität des Intellekts ist seine Fähigkeit zur vollständigen Selbstreflexion – also die Fähigkeit, sich selbst und seinen eigenen Erkenntnisakt zum Gegenstand des Denkens zu machen. Ein KI-System kann grundsätzlich seine eigenen Prozesse algorithmisch protokollieren oder analysieren. Dies scheint jedoch grundlegend anders zu sein als die absichtliche Rückbesinnung des menschlichen Intellekts auf sich selbst. Was ist Ihrer Meinung nach der ontologische Unterschied zwischen einer solchen algorithmischen Prozessverfolgung und der Reflexivität des Intellekts? Und warum zeigt gerade diese Fähigkeit, dass der Intellekt „alle materiellen Wesen übertrifft und daher selbst eine immaterielle Aktivität sein muss”?
Physische Wesen, seien es KI-Systeme oder menschliche Organe wie das Gehirn, können sich nicht nach innen wenden. Ein Auge kann sich selbst nicht sehen, und eine Hand kann sich selbst nicht fühlen. Nur ein immaterielles Prinzip kann sich selbst im Akt des Erkennens besitzen. KI-Systeme können symbolisch dargestellte Daten manipulieren, aber sie können sich selbst nicht durch einen immanenten Akt als erkennende Wesen erkennen. Der immaterielle Akt des Intellekts offenbart seine immaterielle Natur.
Hinweis: Interviews wie dieses spiegeln die Ansichten der jeweiligen Gesprächspartner wider, nicht notwendigerweise jene der Redaktion von CNA Deutsch.
Erhalten Sie Top-Nachrichten von CNA Deutsch direkt via WhatsApp und Telegram.
Schluss mit der Suche nach katholischen Nachrichten – Hier kommen sie zu Ihnen.




