· Vatikanstadt ·

G-7 Gipfel in Borgo Egnazia in der süditalienischen Region Apulien

Künstliche Intelligenz braucht eine ethische Ausrichtung

 Künstliche Intelligenz braucht eine ethische Ausrichtung  TED-025
22. Juni 2024

Wir veröffentlichen hier den vollständigen Text der Ansprache des Papstes, den er nur zum Teil verlesen hat:

Ein faszinierendes und unheimliches Instrument

Sehr geehrte Damen und Herren,

heute wende ich mich mit einigen Überlegungen zu den Auswirkungen der künstlichen Intelligenz auf die Zukunft der Menschheit an Sie, die Staats- und Regierungschefs des intergouvernementalen G7-Forums.

»Die Heilige Schrift bezeugt, dass Gott
den Menschen seinen Geist gegeben hat, damit sie „mit Weisheit, Klugheit und Kenntnis für jegliche Arbeit“ ausgestattet seien
(Ex 35,31)«1. Wissenschaft und Technik sind also einzigartige Ergebnisse des kreativen Potenzials von uns Menschen2.

Nun, genau aus der Nutzung dieses kreativen Potentials, das Gott uns gegeben hat, geht die künstliche Intelligenz hervor.

Letztere ist bekanntlich ein äußerst mächtiges Instrument, das in sehr vielen Bereichen des menschlichen Wirkens eingesetzt wird: von der Medizin bis zur Arbeitswelt, von der Kultur bis zur Kommunikation, von der Bildung bis zur Politik. Und man kann heute davon ausgehen, dass ihr Einsatz die Art und Weise, wie wir leben, unsere sozialen Beziehungen und in Zukunft sogar die Art und Weise, wie wir unsere Identität als Mensch begreifen, zunehmend beeinflussen wird3.

Das Thema der künstlichen Intelligenz wird jedoch oft als ambivalent wahrgenommen: Einerseits begeistert es wegen der Mög-lichkeiten, die es bietet, andererseits flößt es Angst ein wegen der Konsequenzen, die es vorausahnen lässt. In diesem Zusammenhang kann man sagen, dass uns alle, wenn auch in unterschiedlichem Maße, zwei Gefühlslagen erfassen: Wir sind begeistert, wenn wir uns den Fortschritt vorstellen, der durch die künstliche Intelligenz erzielt werden kann, aber zugleich bekommen wir Angst, wenn wir die Gefahren bemerken, die mit ihrem Einsatz verbunden sind4.

Wir können im Übrigen nicht daran zweifeln, dass das Aufkommen der künstlichen Intelligenz eine wahrhaft kognitiv-industrielle Revolution darstellt, die zur Schaffung eines neuen Gesellschaftssystems beitragen wird, das durch komplexe epochale Veränderungen gekennzeichnet ist. So könnte die künstliche Intelligenz beispielsweise eine Demokratisierung des Zugangs zu Wissen, den exponentiellen Fortschritt der wissenschaftlichen Forschung und die Möglichkeit, ermüdende Arbeiten an Maschinen abzugeben, ermöglichen; zugleich könnte sie aber auch eine größere Ungerechtigkeit zwischen fortgeschrittenen und sich entwickelnden Nationen, zwischen herrschenden und unterdrückten sozialen Schichten mit sich bringen und so die Möglichkeit einer „Kultur der Begegnung“ zugunsten einer „Kultur der Wegwerfens“ gefährden.

Das Ausmaß dieser komplexen Veränderungen ist offensichtlich mit der rasanten technologischen Entwicklung der künstlichen Intelligenz selbst verbunden.

Genau dieser rasante technologische Fortschritt macht die künstliche Intelligenz zu einem faszinierenden und zugleich unheimlichen Instrument und verlangt nach einer Reflexion, die der Situation gerecht wird.

In dieser Hinsicht könnte man vielleicht von der Feststellung ausgehen, dass die künstliche Intelligenz in erster Linie ein Instrument ist. Und es versteht sich von selbst, dass die Vorteile oder die Schäden, die sie mit sich bringen wird, von ihrem Einsatz abhängen.

Das ist sicher richtig, denn das war bei jedem Werkzeug der Fall, das der Mensch seit Anbeginn der Zeit hergestellt hat.

Diese unsere Fähigkeit, Werkzeuge in einer Menge und Komplexität herzustellen, die unter den Lebewesen einzigartig ist, lässt uns von einem technisch-menschlichen Zustand sprechen: Der Mensch hat schon immer eine Beziehung zur Umwelt gehabt, die durch die Werkzeuge vermittelt wurde, die er nach und nach hergestellt hat. Es ist unmöglich, die Geschichte des Menschen und der Zivilisation von der Geschichte dieser Werkzeuge zu trennen. Manche haben in all dem eine Art Mangel, ein Defizit des Menschen sehen wollen, so als ob er aufgrund dieses Mangels gezwungen wäre, die Technik zu erfinden5. Ein aufmerksamer und objektiver Blick zeigt uns jedoch das Gegenteil. Wir leben im Hinblick auf unser biologisches Sein in einem Zustand des Darüberhinausgehens; wir sind Wesen, die nach außen hin exponiert, ja radikal offen sind für das Darüberhinaus. Darin hat unsere Offenheit für andere und für Gott ihren Ursprung; von dort geht das schöpferische Potential unserer Intelligenz in Form von Kultur und Schönheit hervor; und daraus entstehen schließlich unsere technischen Fähigkeiten. Die Technologie ist also eine Spur dieses unseres Darüberhinausgehens.

Der Gebrauch unserer Werkzeuge ist jedoch nicht immer eindeutig auf das Gute ausgerichtet. Auch wenn der Mensch in sich eine Berufung zum Darüberhinaus und zur Erkenntnis verspürt, die als Werkzeug des Guten im Dienst der Brüder und Schwestern und des gemeinsamen Hauses gelebt wird (vgl. Gaudium et spes, 16), so geschieht dies nicht immer. Im Gegenteil, die Menschheit hat gerade wegen ihrer radikalen Freiheit die Ziele ihres Daseins nicht selten pervertiert, indem sie sich selbst und dem Planeten zum Feind wurde6. Dasselbe Schicksal kann auch die technischen Mittel ereilen. Nur wenn ihre Berufung zum Dienst am Menschen gewährleistet ist, werden die technischen Mittel nicht nur die einzigartige Größe und Würde des Menschen offenbaren, sondern auch den Auftrag, den dieser erhalten hat, den Planeten und alle seine Bewohner „zu bearbeiten und zu hüten“ (vgl. Gen 2,15). Wenn wir über Technologie sprechen, sprechen wir darüber, was es bedeutet, Mensch zu sein, und damit über unseren einzigartigen Zustand zwischen Freiheit und Verantwortung; wir sprechen also über Ethik.

Als unsere Vorfahren nämlich Feuersteine schärften, um daraus Messer zu machen, benutzten sie diese, sowohl um Leder für Kleidung zuzuschneiden als auch um sich gegenseitig zu töten. Das Gleiche könnten wir über andere, viel fortschrittlichere Technologien sagen, wie zum Beispiel die Energie, die durch die Kernfusion erzeugt wird, wie es auf der Sonne geschieht, die sicher dafür genutzt werden könnte, um saubere, erneuerbare Energie zu erzeugen, aber auch um unseren Planeten in Schutt und Asche zu verwandeln.

Künstliche Intelligenz ist jedoch ein noch komplexeres Werkzeug. Ich würde fast sagen, dass es sich um ein Werkzeug sui generis handelt. Während also die Verwendung eines einfachen Werkzeugs (wie z. B. eines Messers) unter der Kontrolle des Menschen steht, der es benutzt, und nur von ihm seine ordnungsgemäße Verwendung abhängt, kann sich die künstliche Intelligenz dagegen autonom an die ihr zugewiesene Aufgabe anpassen und, wenn sie so konzipiert ist, unabhängig vom Menschen eine Auswahl treffen, um das gesetzte Ziel zu erreichen7.

Es sollte immer bedacht werden, dass die Maschine in einigen Formen und mit diesen neuen Mitteln algorithmische Auswahlen treffen kann. Was die Maschine tut, ist eine technische Auswahl unter mehreren Möglichkeiten und beruht entweder auf genau definierten Kriterien oder auf statistischen Rückschlüssen. Der Mensch hingegen wählt nicht nur aus, sondern ist in seinem Herzen zu einer Entscheidung fähig. Die Entscheidung ist ein Element, das man eher als strategisch denn als eine Auswahl bezeichnen könnte, und sie erfordert eine praktische Bewertung. Zuweilen, wie so oft in der schwierigen Aufgabe des Regierens, sind wir gerufen, Entscheidungen zu treffen, die Konsequenzen für viele Menschen haben. Das menschliche Nachsinnen hat in diesem Zusammenhang immer von Weisheit gesprochen, die Phronesis der griechischen Philosophie und zumindest teilweise die Weisheit der Heiligen Schrift. Angesichts der Wunderwerke der Maschinen, die in der Lage zu sein scheinen, unabhängig auszuwählen, müssen wir uns darüber im Klaren sein, dass die Entscheidung immer dem Menschen überlassen bleiben muss, selbst in den dramatischen und dringlichen Situationen, bei denen sie manchmal in unserem Leben auf uns zukommt. Wir würden die Menschheit zu einer hoffnungslosen Zukunft verdammen, wenn wir den Menschen die Fähigkeit nehmen würden, über sich selbst und ihr Leben zu entscheiden, und sie dazu verdammen würden, von der Wahl von Maschinen abhängig zu sein. Wir müssen der menschlichen Kontrolle über den Auswahlprozess von Programmen der künstlichen Intelligenz einen bedeutenden Raum geben, diesen garantieren und schützen: Die menschliche Würde selbst steht dabei auf dem Spiel.

Gerade in dieser Frage möchte ich darauf bestehen, dass es in einem Drama wie einem bewaffneten Konflikt dringend erforderlich ist, die Entwicklung und den Gebrauch von Geräten wie den so genannten „tödlichen autonomen Waffen“ zu überdenken, um ihren Einsatz zu verbieten, beginnend mit einer proaktiven und konkreten Verpflichtung zur Einführung einer immer größeren und bedeutenden menschlichen Kontrolle. Keine Maschine darf jemals die Wahl treffen können, einem Menschen das Leben zu nehmen.

Hinzu kommt, dass zumindest bei den fortgeschrittenen Formen der künstlichen Intelligenz die ordnungsgemäße Nutzung weder von den Nutzern noch von den Programmierern, die den ursprünglichen Zweck der Programme zum Zeitpunkt ihrer Entwicklung festgelegt haben, vollständig kontrolliert werden kann. Dies gilt umso mehr, als es sehr wahrscheinlich ist, dass in nicht allzu ferner Zukunft Programme künstlicher Intelligenz in der Lage sein werden, direkt miteinander zu kommunizieren, um ihre Performance zu verbessern. Und wenn in der Vergangenheit die Menschen, die einfache Werkzeuge modellierten, sahen, wie diese ihre Existenz prägten – das Messer ermöglichte ihnen das Überleben in der Kälte, aber auch die Entwicklung der Kriegskunst –, so werden sie jetzt, da sie ein komplexes Werkzeug modelliert haben, sehen, wie dieses ihre Exis-tenz noch mehr prägt8.

Der grundlegende Mechanismus der künstlichen Intelligenz

Ich möchte nun kurz auf die Komplexität der künstlichen Intelligenz eingehen. Künstliche Intelligenz ist im Wesentlichen ein Werkzeug zur Lösung eines Problems und funktioniert durch eine logische Verkettung von algebraischen Operationen, die mit Datenkategorien durchgeführt werden, die verglichen werden, um Korrelationen zu entdecken und ihren statistischen Wert zu verbessern, dank eines Selbstlernprozesses, der auf der Suche nach weiteren Daten und der Selbstmodifikation ihrer Berechnungsverfahren beruht.

Die künstliche Intelligenz ist also darauf ausgelegt, spezifische Probleme zu lösen, aber für diejenigen, die sie nutzen, ist die Versuchung oft unwiderstehlich, aus den von ihr vorgeschlagenen spezifischen Lösungen allgemeine, sogar anthropologische Schlüsse zu ziehen.

Ein gutes Beispiel ist der Einsatz von Programmen, die Richtern bei Entscheidungen über die Gewährung von Hausarrest für Verurteilte, die eine Strafe in einer Haftanstalt verbüßen, helfen sollen. In diesem Fall wird die künstliche Intelligenz verwendet, um die Wahrscheinlichkeit der Rückfälligkeit einer von einem Verurteilten begangenen Straftat anhand vordefinierter Kategorien (Art der Straftat, Verhalten im Gefängnis, psychologische Bewertung und andere) vorherzusagen, wobei die künstliche Intelligenz Zugang zu Datenkategorien hat, die das Privatleben des Verurteilten betreffen (ethnische Herkunft, Bildungsniveau, Kreditlinie und andere). Die Anwendung einer solchen Methodik – die mitunter das Risiko birgt, einer Maschine de facto das letzte Wort über das Schicksal einer Person zu überlassen – kann implizit eine Bezugnahme auf die vorgefassten Bewertungen mit sich bringen, die den von der künstlichen Intelligenz verwendeten Datenkategorien innewohnen.

Die Zugehörigkeit zu einer bestimmten ethnischen Gruppe oder, prosaischer ausgedrückt, eine geringfügige Ordnungswidrigkeit, die Jahre zuvor begangen wurde (z. B. das Nichtbezahlen eines Strafzettels), wird die Entscheidung, ob Hausarrest gewährt wird oder nicht, tatsächlich beeinflussen. Dagegen entwickelt sich der Mensch ständig weiter und ist in der Lage, mit seinen Handlungen zu überraschen, was die Maschine nicht berücksichtigen kann.

Es ist auch anzumerken, dass ähnliche Anwendungen wie die soeben erwähnte dadurch beschleunigt werden, dass Programme der künstlichen Intelligenz zunehmend mit der Fähigkeit ausgestattet werden, direkt mit Menschen zu interagieren (Chatbots), Gespräche mit ihnen zu führen und enge Beziehungen zu ihnen aufzubauen, die oft sehr angenehm und beruhigend scheinen, da diese Programme der künstlichen Intelligenz so konzipiert sind, dass sie lernen, in personalisierter Form auf die physischen und psychischen Bedürfnisse der Menschen zu reagieren.

Zu vergessen, dass die künstliche Intelligenz nicht ein menschliches Wesen ist und dass sie keine allgemeinen Prinzipien vorschlagen kann, ist oft ein schwerer Fehler, der entweder auf das tiefe Bedürfnis des Menschen zurückzuführen ist, eine dauerhafte Form der Gemeinschaft zu finden, oder auf eine unterbewusste Annahme des Menschen, nämlich die Annahme, dass Beobachtungen, die durch einen Rechenmechanismus gewonnen werden, unbestrittenen sicher und zweifellos allgemeingültig sind.

Diese Annahme ist jedoch sehr gewagt, wie eine Untersuchung der inhärenten Grenzen des Rechnens zeigt. Die künstliche Intelligenz verwendet algebraische Operationen, die in einer logischen Reihenfolge ausgeführt werden (z. B. wenn der Wert von X größer ist als der von Y, wird X mit Z multipliziert; andernfalls wird X durch Y geteilt). Diese Berechnungsmethode – der so genannte „Algorithmus“ – ist weder objektiv noch neutral9. Da sie auf Algebra basiert, kann sie nur numerisch formalisierte Wirklichkeiten untersuchen10.

Es sollte auch nicht vergessen werden, dass die Algorithmen zur Lösung sehr komplexer Probleme so ausgeklügelt sind, dass es für die Programmierer selbst schwierig ist, genau zu verstehen, wie sie ihre Ergebnisse erzielen. Dieser Trend zur Verfeinerung dürfte sich mit der Einführung von Quantencomputern, die nicht mit binären Schaltkreisen (Halbleitern oder Mikrochips), sondern nach den recht komplexen Gesetzen der Quantenphysik arbeiten werden, noch erheblich beschleunigen. Andererseits ist die kontinuierliche Einführung von immer leistungsfähigeren Mikrochips bereits jetzt eine der Ursachen für die überwiegende Nutzung künstlicher Intelligenz durch die wenigen Nationen, die über sie verfügen.

Ob ausgeklügelt oder nicht, die Qualität der Antworten, die Programme der künstlichen Intelligenz geben, hängt letztlich von den Daten ab, die sie verwenden, und wie diese Daten strukturiert sind.

Abschließend möchte ich auf einen letzten Bereich hinweisen, in dem die Komplexität des Mechanismus der sogenannten generativen künstlichen Intelligenz (Generative Artificial Intelligence) deutlich zutage tritt. Niemand bezweifelt, dass es heute großartige Werkzeuge für den Wissenszugang gibt, die sogar das self-learning und das self-tutoring in einer Vielzahl von Bereichen ermöglichen. Viele von uns sind beeindruckt von den Anwendungen, die leicht im Netz verfügbar sind, um einen Text zu verfassen oder ein Bild zu einem beliebigen Thema zu erstellen. Besonders angetan davon sind Studenten, die davon unverhältnismäßig viel Gebrauch machen, wenn sie Arbeiten anfertigen müssen.

Diese Studenten, die sich oft viel besser als ihre Professoren mit dem Einsatz von künstlicher Intelligenz auskennen und daran gewöhnt sind, vergessen jedoch, dass die so genannte generative künstliche Intelligenz streng genommen nicht wirklich „kreativ“ ist. Sie durchsucht in Wahrheit Big Data nach Informationen und verpackt sie in dem von ihr gewünschten Stil. Sie entwickelt keine neuen Konzepte oder Analysen. Sie wiederholt die gefundenen und gibt ihnen eine ansprechende Form. Und je öfter sie einen Begriff oder eine Hypothese wiederholt vorfindet, desto mehr hält sie diese für legitim und gültig. Sie ist also nicht „generierend“, sondern „verstärkend“, in dem Sinne, dass sie bestehende Inhalte neu ordnet und zu ihrer Konsolidierung beiträgt, oft ohne zu prüfen, ob sie Fehler oder Vorurteile enthält.

Dies birgt nicht nur die Gefahr, Fake News zu legitimieren und den Vorteil einer vorherrschenden Kultur zu stärken, sondern untergräbt auch den Bildungsprozess in nuce. Die Bildung, die den Schülern die Möglichkeit einer authentischen Reflexion bieten sollte, läuft Gefahr, auf eine Wiederholung von Begriffen reduziert zu werden, die allein aufgrund ihrer ständigen Wiederkehr zunehmend als unanfechtbar bewertet werden11.

Für gemeinsame Ethikrichtlinien die Würde des Menschen neu in den Mittelpunkt stellen

Dem bisher Gesagten soll nun eine allgemeinere Feststellung hinzugefügt werden. Die gegenwärtige Epoche der technologischen Innovation geht nämlich mit einer besonderen und noch nie dagewesenen sozialen Situation einher: In den großen Fragen des gesellschaftlichen Lebens wird es immer schwieriger, Einigungen zu erzielen. Selbst in Gemeinschaften, die sich durch eine gewisse kulturelle Kontinuität auszeichnen, kommt es häufig zu hitzigen Debatten und Konfrontationen, die gemeinsame Überlegungen und politische Lösungen auf der Suche nach dem Guten und Gerechten erschweren. Jenseits der Komplexität von legitimen Ansichten, die die menschliche Familie kennzeichnen, gibt es einen Faktor, der diesen verschiedenen Debatten gemein ist. Es ist ein Verlust oder zumindest eine Verdunkelung des Sinns für das Menschliche und eine scheinbare Bedeutungslosigkeit des Begriffes der Menschenwürde12 zu verzeichnen. Es scheint, als würde der Wert und die tiefe Bedeutsamkeit einer der grundlegenden Kategorien des Wes-tens verloren gehen: die Kategorie der menschlichen Person. In dieser Zeit, in der Programme der künstlichen Intelligenz den Menschen und sein Handeln in Frage stellen, stellt gerade der Mangel an einem Ethos, das mit der Wahrnehmung des Wertes und der Würde der menschlichen Person verbunden ist, den größten Schwachpunkt bei der Implementierung und Entwicklung dieser Systeme dar. Wir dürfen nämlich nie vergessen, dass keine Innovation neutral ist. Die Technik wird zu einem bestimmten Zweck entwickelt und stellt in ihrer Auswirkung auf die menschliche Gesellschaft immer eine Form der Ordnung der sozialen Beziehungen und eine Machtmöglichkeit dar, die es den einen erlaubt, gewisse Handlungen auszuführen und die anderen daran hindert. Diese konstitutive Machtdimension der Technik trägt in sich immer, mehr oder weniger explizit, die Weltanschauung derjenigen eingeschrieben, die sie realisiert und entwickelt haben.

Dies gilt auch für Programme künstlicher Intelligenz. Damit diese zu Instrumenten für den Aufbau des Guten und einer besseren Zukunft werden können, müssen sie immer auf das Wohl jedes einzelnen Menschen ausgerichtet sein. Sie bedürfen einer ethischen Ausrichtung.

Die ethische Entscheidung ist in der Tat eine, die nicht nur die Ergebnisse einer Handlung berücksichtigt, sondern auch die Werte, die auf dem Spiel stehen, und die Pflichten, die sich aus diesen Werten ableiten. Aus diesem Grund habe ich die Unterzeichnung des „Rome Call for AI Ethics“13 im Jahr 2020 in Rom und die darin enthaltene Unterstützung für diese Form der ethischen Moderation von Algorithmen und Programmen der künstlichen Intelligenz begrüßt, die ich als „Algor-Ethik“14 bezeichnet habe. In einem pluralistischen und globalen Kontext, in dem sich auch unterschiedliche Wahrnehmungen und pluralistische Hierarchien in den Werteskalen zeigen, könnte es schwierig erscheinen, eine einzige Hierarchie der Werte zu finden. Aber in der ethischen Analyse können wir auch auf andere Arten von Instrumenten zurückgreifen: Wenn es uns schwerfällt, eine einzige Ordnung globaler Werte zu definieren, so können wir doch gemeinsame Prinzipien finden, mit denen wir etwaige Dilemmata oder Konflikte im Leben angehen und lösen können.

Aus diesem Grund wurde der Rome Call ins Leben gerufen: In dem Begriff „Algor-Ethik“ wird eine Reihe von Prinzipien zu einer globalen und pluralistischen Plattform verdichtet, die in der Lage ist, die Zustimmung von Kulturen, Religionen, internationalen Organisationen und großen Unternehmen als Hauptakteure dieser Entwicklung zu finden.

Die Politik, die wir dazu brauchen

Es besteht also die konkrete Gefahr, dass die künstliche Intelligenz gemäß ihrem grundlegenden Mechanismus die Sicht der Welt auf in Zahlen ausgedrückte und in vorgefertigte Kategorien gefasste Wirklichkeiten beschränkt, den Beitrag anderer Ausdrucksformen der Wahrheit verdrängt und einheitliche anthropologische, sozioökonomische und kulturelle Modelle aufzwingt. Das technologische Paradigma, das durch die künstliche Intelligenz verkörpert wird, läuft also Gefahr, einem weitaus gefährlicheren Paradigma Platz zu machen, das ich bereits als das „technokratische Paradigma“15 beschrieben habe. Wir dürfen nicht zulassen, dass ein so mächtiges und unentbehrliches Werkzeug wie die künstliche Intelligenz ein solches Paradigma verstärkt; vielmehr müssen wir gerade die künstliche Intelligenz zu einem Schutzwall gegen seine Ausbreitung machen.

Und genau hier besteht dringender politischer Handlungsbedarf, wie die Enzyklika Fratelli tutti in Erinnerung ruft. Gewiss, »für viele ist die heutige Politik ein Schimpfwort, und es ist nicht zu übersehen, dass hinter dieser Tatsache oft Fehler, Korruption und Ineffizienz mancher Politiker stehen. Hierzu kommen noch Strategien, die darauf abzielen, die Politik zu schwächen, sie durch die Wirtschaft zu ersetzen oder sie mit einer Ideologie zu beherrschen. Und dennoch, kann die Welt ohne Politik funktionieren? Kann sie ohne eine gute Politik einen effektiven Weg zur allgemeinen Geschwisterlichkeit und zum gesellschaftlichen Frieden finden?«16.

Unsere Antwort auf diese letzten Fragen lautet: Nein! Die Politik ist notwendig! Ich möchte bei dieser Gelegenheit noch einmal betonen: »Angesichts vieler Formen armseliger Politik, die auf das unmittelbare Interesse ausgerichtet sind, zeigt sich „die politische Größe […], wenn man in schwierigen Momenten nach bedeutenden Grundsätzen handelt und dabei an das langfristige Gemeinwohl denkt. Diese Pflicht in einem Projekt der Nation auf sich zu nehmen, kostet die politische Macht einen hohen Preis“,  dies umso mehr in einem gemeinsamen Projekt für die gegenwärtige und zukünftige Menschheit«17.

Sehr geehrte Damen und Herren,

meine Überlegungen zu den Auswirkungen der künstlichen Intelligenz auf die Zukunft der Menschheit führen uns zu der Feststellung, wie wichtig eine „gesunde Politik“ ist, um mit Hoffnung und Zuversicht in die Zukunft zu blicken. Wie ich bereits an anderer Stelle gesagt habe: »Die weltweite Gesellschaft weist schwerwiegende strukturelle Mängel auf, die nicht durch Zusammenflicken oder bloße schnelle Gelegenheitslösungen behoben werden. Es gibt Dinge, die durch neue Grundausrichtungen und bedeutende Verwandlungen verändert werden müssen. Nur eine gesunde Politik könnte hier die Führungsrolle übernehmen und dabei die verschiedensten Sektoren und die unterschiedlichsten Wissensbereiche einbeziehen. So kann eine Wirtschaft, die sich in ein politisches, soziales, kulturelles und vom Volk her kommendes Projekt für das Gemeinwohl einfügt, „den Weg für andere Möglichkeiten [eröffnen], die nicht etwa bedeuten, die Kreativität des Menschen und seinen Sinn für Fortschritt zu bremsen, sondern diese Energie auf neue Anliegen hin auszurichten“ (Laudato si’, 191)«18.

Genau das ist bei der künstlichen Intelligenz der Fall. Es liegt an allen, sie sinnvoll zu nutzen, und es kommt Politik zu, die Bedingungen dafür zu schaffen, dass eine solche positive Nutzung möglich und fruchtbar ist.

Danke.

Fußnoten

1 Botschaft zum 57. Weltfriedenstag am
1. Januar 2024
, 1.

2 Vgl. ebd.

3 Vgl. ebd., 2.

4 Diese Ambivalenz wurde bereits von Papst Paul VI. in seiner Ansprache an
die Mitarbeiter des „Zentrums für die Automatisierung linguistischer Analyse“ des Aloysianum
am 19. Juni 1964 wahrgenommen.

5 Vgl. A. Gehlen, Der Mensch: Seine Natur und seine Stellung in der Welt, Wiesbaden 142004, 16f.

6 Enzyklika Laudato si’ (24. Mai 2015), 102-114.

7 Botschaft zum 57. Weltfriedenstag am
1. Januar 2024
, 3.

8 Die Erkenntnisse von Marshall McLuhan und John M. Culkin sind besonders relevant für die Folgen des Einsatzes künstlicher Intelligenz.

9 Vgl. Ansprache an die Teilnehmer der Vollversammlung der Päpstlichen Akademie für das Leben, 28. Februar 2020.

10 Botschaft zum 57. Weltfriedenstag am 1. Januar 2024, 4.

11 Vgl. ebd., 3 und 7.

12 Vgl. Dikasterium für die Glaubenslehre, Erklärung Dignitas infinita über die menschliche Würde (2. April 2024).

13 Vgl. Ansprache an die Teilnehmer der Vollversammlung der Päpstlichen Akademie für das Leben (28. Februar 2020).

14 Vgl. Ansprache an die Teilnehmer des Kongresses „Promoting Digital Child Dignity – From Concept to Action“ (14. November 2019); vgl. Ansprache an die Teilnehmer der Vollversammlung der Päpstlichen Akademie für das Leben (28. Februar 2020).

15 Für eine ausführlichere Darstellung verweise ich auf meine Enzyklika Laudato si’ über die Sorge für das gemeinsame Haus (24. Mai 2015).

16 Enzyklika Fratelli tutti über die Geschwisterlichkeit und soziale Freundschaft (3. Oktober 2020), 176.

17 Ebd., 178.

18 Ebd., 179.