„Die KI muss dem Menschen dienen“
Die Katholische Kirche nähert sich dem Thema KI an
Bild: Stable Diffusion
Das Interview führte Morgane Llanque
Herr Larrey, Sie sind Priester und Philosoph, wie sind Sie zum Thema Künstliche Intelligenz gekommen?
In den 1990er-Jahren unterrichtete ich an der Päpstlichen Lateranuniversität in Rom Erkenntnistheorie. Das Fach war für alle Philosophie- und Theologiestudierenden verpflichtend. Wir beschäftigten uns mit Aristoteles, Augustinus, Thomas von Aquin, Descartes und modernen Denkern – also mit der Frage: Was ist menschliche Erkenntnis eigentlich? Als jemand, der aus Kalifornien stammt, dem Geburtsort von Google, begann ich damals zu überlegen, ob das, was Maschinen tun, uns helfen kann, besser zu verstehen, was der menschliche Intellekt leistet. Ich kam zu dem Schluss: Ja – aber nur, wenn wir die Unterschiede ernst nehmen. Menschliche Intelligenz ist etwas anderes als die rechnerische Logik einer Maschine. Maschinen verarbeiten Daten über Algorithmen, um programmierte Ergebnisse zu erzielen. Der Begriff „Künstliche Intelligenz“ stammt von John McCarthy, der ihn 1956 auf einer Konferenz in Dartmouth prägte. Schon damals wurde der Ausdruck kritisiert – und ich stimme diesen Einwänden zu. Es ist keine „Intelligenz“ im menschlichen Sinn, sondern eher „Maschinenlogik“.
Lange Zeit spielte KI in der katholischen Kirche keine Rolle. Heute unterhält der Vatikan eine eigene Stiftung namens RenAIssance Foundation zum Thema KI-Ethik. Spätestens seit dem Deepfake, das Papst Franziskus in Rapper-Montur zeigte und viral ging, ist die Verbindung auch in der Öffentlichkeit angekommen. Wie ist die Haltung der katholischen Kirche zu KI?
Papst Franziskus hat das Thema in den letzten zwei Jahren seines Pontifikats stark vorangetrieben. Nach seinem Tod hat Papst Leo XIV. diese Linie fortgeführt. Gerade hat er auf dem AI-Builders-Forum gesagt, KI könne „als technologische Innovation eine Form der Teilhabe am göttlichen Schöpfungsakt sein“. Es ist kein Zufall, dass er den Namen Leo gewählt hat: Er sagte gleich nach seiner Wahl, er wolle für unsere Zeit tun, was sein Namensvetter Papst Leo XIII. im 19. Jahrhundert während der Industriellen Revolution getan hat – nämlich ethische Leitlinien für die digitale Revolution formulieren.
Damals setzte sich die Kirche für die Rechte der Arbeiter und für Gewerkschaften ein, obwohl sie gleichzeitig den Sozialismus stark ablehnte.
Papst Leo XIII. schrieb 1891 die Enzyklika „Rerum Novarum“ – „Über die neuen Dinge“. Sie war die Geburtsstunde der katholischen Soziallehre. Leo XIII. sah, dass der industrielle Fortschritt zwar Wohlstand brachte, aber auch Ausbeutung und Kinderarbeit. Heute sehen wir ein sehr ähnliches Gefährdungspotenzial bei Künstlicher Intelligenz. Es muss jetzt darum gehen, technische Innovation mit sozialer Gerechtigkeit und auch Umweltschutz zu verbinden. Damals brauchte es Gewerkschaften und Gesetze, um die Rechte der Arbeiter zu schützen. Heute müssen wir Regeln finden, die die Würde des Menschen und die Gesundheit des Planeten im digitalen Zeitalter sichern.
Wie müssen diese Regeln aussehen?
Im Vatikan arbeiten mehrere Expertinnen und Experten an dem Thema, etwa Pater Paolo Benanti, der Autor des sogenannten „Rome Call for AI Ethics“. Dieses kurze Dokument formuliert Grundsätze für die ethische Nutzung Künstlicher Intelligenz und wurde von Microsoft, IBM, der UNESCO und auch von einigen muslimischen Gelehrten unterzeichnet. Ein weiteres wichtiges Papier ist das vatikanische Dokument „Antiqua et nova“ von 2025, das die Perspektive der Kirche auf KI darlegt. Wir wollen damit sicherstellen, dass KI dem Menschen dient, seiner Würde, seinem Gedeihen, und nicht zu seinem Nachteil eingesetzt wird. In einer Welt ohne gemeinsamen ethischen Konsens muss die Kirche eine starke Stimme haben. Wenn KI dem Menschen dient, sein Leben verbessert, seine Würde achtet – dann ist sie eine Gabe. Wenn sie ihn ersetzt, manipuliert oder erniedrigt, wird sie zur Gefahr.
Sie sind so etwas wie ein Influencer für KI-Ethik bei den Mächtigen in Silicon Valley. Dort warnen Größen wie Elon Musk vor den Gefahren einer zu mächtigen Künstlichen Intelligenz.
Elon Musk sagte einmal, KI könne gefährlicher sein als Atomwaffen. Stephen Hawking warnte vor dem Ende der Menschheit, Bill Gates vor Kontrollverlust. Der KI-Forscher Eliezer Yudkowsky schrieb ein Buch mit dem Titel „If Anyone Builds It, Everyone Dies“. Das klingt apokalyptisch, aber es zeigt, wie ernst die Risiken sind. Der Philosoph David Chalmers spricht vom „Alignment Problem“ – also der Frage, ob die Ziele hoch entwickelter KI-Systeme überhaupt mit menschlichen Werten übereinstimmen. Wenn wir Maschinen immer mehr Autonomie geben, besteht die Gefahr, dass sie Entscheidungen treffen, die nicht mehr unserer Ethik entsprechen.
Sie kennen viele dieser Leute persönlich – Sam Altman, Demis Hassabis, Dario Amodei. Wie reagieren sie auf Ihre Mahnungen?
Meistens mit Respekt und Interesse. Ich predige ihnen nichts, sondern führe Gespräche auf Augenhöhe. Viele in der Tech- Branche sind keine gläubigen Menschen, aber sie nehmen die Stimme der Kirche ernst. Sam Altman etwa ist ein kluger, reflektierter Mensch, auch wenn ich nicht immer seiner Meinung bin. Das Problem ist weniger der einzelne Entwickler als der Markt. Die Marktkräfte sind so stark, dass es fast unmöglich ist, Entscheidungen zu treffen, die kurzfristig Gewinne schmälern, selbst wenn sie langfristig ethisch richtiger wären. Die Kirche fordert nicht, dass Unternehmen aufhören, Geld zu verdienen. Aber sie erinnert daran, dass Profit nicht das einzige Ziel sein darf.
Einer Ihrer Kollegen, den Sie schon genannt haben, Pater Paolo Benanti, hat einmal gesagt, die Menschen behandeln KI wie einen Götzen. Würden Sie das unterschreiben?
Der Begriff „Götze“ ist heikel, da er ein theologischer Terminus ist, aber der Gedanke stimmt: Viele Menschen überschätzen die Fähigkeiten von KI oder vertrauen ihr blind. Das kann gefährlich sein. In den USA gab es tragische Fälle, in denen Jugendliche nach Chatbot-Gesprächen Selbstmord begingen. Es ging sogar so weit, dass der Chatbot einem Teenager anbot, seinen Abschiedsbrief zu verfassen. Nun beschäftigen sich die Gesetzgeber und Entwickler damit, wie wir solche schrecklichen Fälle zukünftig verhindern können. Der US-Senat hat Untersuchungen eingeleitet. Jetzt werden Begriffe wie „Suizid“ oder „Selbstverletzung“ als Warnsignale erkannt, um gefährliche Dialoge zu stoppen. Das zeigt: Wir müssen technische Verantwortung noch viel stärker mit menschlicher Fürsorge verbinden.
„Auch in Zukunft werden Maschinen keine Seele haben“
Könnte KI Ihrer Meinung nach eines Tages ein eigenes Bewusstsein entwickeln? Was bedeutet das für das katholische Verständnis von Schöpfung?
Die meisten Philosophen, die ich kenne, sagen Nein. Wir wissen bis heute nicht einmal, was Bewusstsein beim Menschen genau ist – wie sollten wir es dann künstlich erzeugen? David Chalmers nennt das das „schwere Problem des Bewusstseins“. Bewusstsein ist eine Eigenschaft lebender Wesen. Tiere sind sich ihrer selbst bewusst, Maschinen nicht. Raymond Kurzweil, der berühmte Futurist, sagt: Wenn Maschinen sich verhalten, als wären sie sich ihrer selbst bewusst, werden wir sie so behandeln. Das ist eine kluge Formulierung, aber keine ontologische Wahrheit. Maschinen werden keine Seele haben.
Das ist natürlich eine katholische Position, denn auch das Konzept der Seele können wir ja nicht wissenschaftlich belegen. Was sagen Sie den Entwicklern, die an Konzepten wie „Mind Uploading“ arbeiten, also daran, das menschliche Bewusstsein in einen Computer zu übertragen?
Ich sage ihnen: Es gibt Bereiche, die theoretisch technisch übertragbar sind – etwa Erinnerungen, die in bestimmten Hirnregionen gespeichert sind. Die DARPA (Defense Advanced Research Projects Agency, Anm. d. Red.), die Forschungsbehörde des US-Verteidigungsministeriums, betreibt schon lange ein Projekt, bei dem daran gearbeitet wird, beschädigte Erinnerungen von traumatisierten Soldaten durch neurale Stimulation zu „restaurieren“. Aber Bewusstsein ist mehr als Gedächtnis. Thomas von Aquin unterschied schon zwischen den sinnlichen – wie Wahrnehmung und Erinnerung – und den geistigen Kräften des Verstandes, die immateriell sind. Diese kann man nicht digitalisieren. „Mind Uploading“ im eigentlichen Sinn ist deshalb nicht möglich, weil es die Einheit von Körper, Geist und Seele zerstören würde.
Gibt es denn KI-Projekte, die direkt in der Kirche entstanden sind?
Ja, zum Beispiel „Magisterium AI“, entwickelt von Matthew Sanders. Diese Anwendung basiert auf offiziellen kirchlichen Dokumenten und ist ein hervorragendes Beispiel für eine verantwortungsvolle Nutzung Künstlicher Intelligenz im kirchlichen Kontext. Sie beantwortet Fragen zum Glauben, ohne „Halluzinationen“ – also Fehlinformationen – zu erzeugen. Sie wurde vom Vatikan unterstützt und wird weltweit millionenfach genutzt.