Basisinformationen
Künstliche Intelligenz (KI) bezeichnet im Allgemeinen computerbasierte Systeme, die Aufgaben ausführen können, für deren Bewältigung bislang menschliche Intelligenz erforderlich war – etwa Sprachverarbeitung, Mustererkennung oder Entscheidungsfindung. Welche Technik dabei als intelligent gilt, ist auch eine Frage der Perspektive: Schon in den 1970er Jahren wurden die ersten Vollwaschautomaten als „intelligente“ Technik beworben. Heute versteht man unter KI im engeren Sinne vor allem lernende Systeme (sog. maschinelles Lernen bzw. machine learning). Bei diesem Verfahren werden Programme nicht allein auf Basis fester Regeln konstruiert, sondern sie entwickeln auf Grundlage großer Datenmengen eigenständig Modelle (sog. neuronale Netze), um Probleme zu lösen oder Vorhersagen zu treffen. Typische Verfahren zum Training neuronaler Netze sind das überwachte Lernen, das unüberwachte Lernalgorithmen und das verstärkende Lernen (Kirste/Schürholz 2019).
Die ethische Relevanz solcher Systeme ergibt sich jedoch nicht allein aus ihrer technischen Funktionsweise, sondern auch aus den Deutungsmustern, die sie hervorrufen: KI wird nicht selten als autonome oder gar übermenschliche Instanz imaginiert – sei es als Heilsbringerin einer neuen Ordnung oder als Bedrohung der Bestehenden (Weizenbaum 1977; Anders 1956). Der Begriff „Intelligenz“ wird dabei selten neutral verwendet. Er weckt Vergleiche, in denen die Maschine dem Menschen gleichgestellt oder überlegen wirkt. Gerade jene Erzählungen, die sich im Sinne der Technikfolgenabschätzung oft als wissenschaftlich ausgeben und Prognosen über die Fähigkeit von KI in der Zukunft abgeben, transportieren letztlich mythische Strukturen: etwa die Ersetzung des Menschen durch die Maschine, die Überwindung der Körperlichkeit oder die Hoffnung auf Unsterblichkeit (Bostrom 2014). Solche Erzählungen verknüpfen sich mit säkularisierten Motiven religiöser Herkunft – wie der Idee einer zweiten Schöpfung oder der Verheißung einer Erlösung durch Technologie (Blumenberg 2001; Horkheimer/Adorno 1947).
Eine ethisch reflektierte Auseinandersetzung mit KI muss daher über Fragen technischer Machbarkeit hinausgehen. Technik ist nie neutral. Sie spiegelt das Bild, das der Mensch sich von sich selbst macht. In der Weise, wie wir KI einsetzen, zeigt sich, wie wir Freiheit, Verantwortung und Zusammenleben verstehen. Sie muss mitdenken, dass Technik oft mit tief verwurzelten kulturellen Bedeutungen aufgeladen ist. In theologischer Perspektive ergibt sich daraus die Aufgabe, den Freiheitswert technischer Kultur zu prüfen: Nicht die Technik als solche ist zu verwerfen, wohl aber ihre Überhöhung zu etwas, das nicht mehr dem Menschen dient. Ethik hat demgegenüber die Aufgabe, an einem Freiheitsbegriff festzuhalten, in dem technische Innovation sich an der menschlichen Lebensgestaltung ausrichtet (Rendtorff 1990).
Fachinformationen
a) Heilserwartungen und Unheilsbilder
KI wird häufig mit weitreichenden Heilsversprechen assoziiert – von der Optimierung menschlicher Entscheidungsprozesse, über die Hoffnung auf eine bessere Weltregierung durch KI, unter welcher Kriege und Armut der Vergangenheit angehören, bis zur endgültigen Verschmelzung des Menschen mit seiner Technik hin zu unsterblichen Überwesen. Diese Projektionen bedienen sich mythischer Semantiken, die aus religiösen Traditionen bekannt sind: etwa der Glaube an eine zweite Schöpfung am Ende der Zeit oder an eine allwissende und gerechte Instanz, die den Menschen übersteigt (Teilhard de Chardin 1959; Bostrom 2014). Diesen Hoffnungen stehen gleichsam katastrophale Szenarien gegenüber, die vor einer Entgleisung maschineller Autonomie warnen – von der Bevormundung des Menschen in seiner Entscheidungsfreiheit, über sein Obsoletwerden in der Arbeitswelt, bis hin zur Vorstellung eines umfassenden Kontrollverlusts des Menschen über seine Technik, die letztlich in seiner Vernichtung mündet (Anders 1956; Yudkowsky 2008).
b) Datenmonopol und Machtasymmetrien
Die Entwicklung leistungsfähiger KI ist an konzentrierte Infrastrukturen gebunden – sowohl hinsichtlich der Rechenleistung als auch der Verfügbarkeit großer Datenmengen. Im Gegensatz zu anderen Hochtechnologien wie der Atomkraft liegt das Monopol hier nicht bei Staaten, sondern in den Händen von wenigen, marktwirtschaftlich orientierten Unternehmen. Hier sind vor allem die sog. Frightful Five zu nennen: Meta, Microsoft, Apple, Amazon, Google. Diese Abhängigkeit von wenigen globalen Akteuren führt zu einer privatisierten Technikkultur, deren Standards sich weitgehend der demokratischen Aushandlung entziehen. Dies erzeugt ein strukturelles Machtungleichgewicht zwischen globalen Technologieunternehmen und einer zunehmend abhängigen Öffentlichkeit (Spiekermann 2019; Nemitz 2018). Die Intransparenz algorithmischer Entscheidungsprozesse – oft als „Black Box“-Phänomen bezeichnet – verschärft diese Asymmetrie zusätzlich (Burrell 2016; Zuboff 2019).
c) Funktionale Blindheit (Myopie)
KI-Systeme operieren nicht intentional, sondern funktional: Sie erkennen statistische Muster in Daten, ohne deren Bedeutung zu „verstehen“. In der Anwendung dieser Systeme entsteht die Gefahr einer systematischen Überschätzung ihrer Leistungsfähigkeit – insbesondere bei komplexen sozialen, moralischen oder politischen Fragestellungen. Die Vorstellung maschineller Unfehlbarkeit kann zur digitalen Abhängigkeit führen, wenn menschliche Akteure die Ergebnisse von KIs nicht mehr kritisch hinterfragen (Burrell 2016). Die ethische Herausforderung liegt dabei weniger in der Frage, ob Maschinen moralische Verantwortung übernehmen können, sondern vielmehr darin, wie viel Verantwortung der Mensch diesen Systemen überträgt – und ob diese Delegation tatsächlich gerechtfertigt ist (Dreyfus 1972; Weizenbaum 1977). Eine zentrale Frage theologischer Ethik ist somit die nach dem Ort des Menschen in einer zunehmend automatisierten Welt. Anstelle einer Projektion menschlicher Fähigkeiten auf Maschinen sollte gefragt werden, welche Formen der Entscheidung, Kommunikation und Verantwortung unverrückbar menschlich bleiben müssen – und weshalb. Es geht dabei nicht um ein technikfeindliches Denken, sondern um eine ethisch reflektierte Rückbindung von Technik an Zwecke menschlicher Lebensführung (Floridi/Cowls 2019).
d) Ressourcenverbrauch und soziale Ausbeutung
KI-Technologien verbrauchen enorme Datenmengen – und damit auch viel Energie. Die damit verbundenen Klimafolgen sind bislang kaum Thema im öffentlichen Diskurs, gehören aber dringend auf die ethische Agenda. Gleichzeitig wird die Entwicklung vieler Systeme durch Menschen getragen, deren Arbeit meist unsichtbar bleibt: Sie sichten und löschen gewaltvolle, sexualisierte oder anderweitig verstörende Inhalte – oft unter Bedingungen, die traumatisierend wirken können (vgl. Dachwitz/Hilbig 2025). Auch monotone Aufgaben zur Datenaufbereitung werden vielfach ausgelagert – schlecht bezahlt und unter hohem Druck. Diese Schattenseite der KI-Entwicklung zeigt: Es geht nicht nur um Technik, sondern um Fragen der Gerechtigkeit, Verantwortung und Anerkennung.
Ethik in der Praxis
a) Verantwortung in technischen Zusammenhängen behalten
Entscheidungen, die mit Hilfe von KI getroffen werden – etwa in der medizinischen Untersuchung, bei der Auswahl von Bewerberinnen und Bewerbern oder in polizeilichen Prognosen –, werfen die Frage auf, wer letztlich für das Ergebnis einsteht. Wo nicht mehr eine einzelne Person entscheidet, sondern viele Daten und Rechenvorgänge zusammenwirken, darf Verantwortung nicht verschwimmen. Ethisch geboten ist, dass Menschen weiterhin die Verantwortung tragen – auch dann, wenn Technik beteiligt ist (Floridi 2019).
b) Klarheit über den Einsatz von KI herstellen
Zahlreiche Interaktionen mit KI-Systemen bleiben für Nutzerinnen und Nutzer unkenntlich. Dies betrifft etwa automatisierte Kommunikation, algorithmische Bewertungssysteme oder datengestützte Vorauswahlprozesse. Die Frage nach einer verpflichtenden Kennzeichnung ist daher nicht nur juristisch relevant, sondern betrifft die integrale Struktur von Vertrauensverhältnissen in der digitalen Welt (Floridi/Cowls 2019). Auf der Ebene der Europäischen Union tritt der AI Act für trustworthy AI für die Kennzeichnungspflicht von KI-generierten Inhalten sowie das Sichtbarmachen von Interaktionen ein (European Council on Ethics in Science and Technology 2021). Im Alltag ist oft unklar, ob man mit einem Menschen oder mit einer Maschine zu tun hat – etwa beim Kundendienst, bei der automatischen Bewertung von Prüfungsleistungen oder bei behördlichen Vorschlägen. Es braucht hier eine klare Kennzeichnung, wann ein System eigenständig arbeitet, wer es eingerichtet hat – und worauf es beruht. Nicht nur Fachleute müssen das verstehen können, sondern alle, die davon betroffen sind (Europäische Kommission 2020).
c) Mitbestimmung und soziale Standards in der Technikentwicklung einfordern
Die Entwicklung von KI geschieht derzeit fast ausschließlich in den Händen großer Firmen. Gesellschaftliche Gruppen, Kirchen, Bildungseinrichtungen oder politische Gremien haben kaum Einfluss auf das, was entwickelt und eingesetzt wird. Das begünstigt eine einseitige Sicht auf Nutzen und Zweck. Ethik kann hier deutlich machen: Gute Technik braucht viele Stimmen – nicht zuletzt, um die zu hören, auf deren Kosten diese Technologie ansonsten betrieben und weiterentwickelt werden. Künstliche Intelligenz braucht Mitsprache und Verständigung darüber, wozu sie dienen soll – und wem.
Literatur
a) Einführend ins Thema
Bartneck, Christoph; Lütge, Christoph; Wagner, Alan R. (2019): Ethik in KI und Robotik, München: Springer.
Nida-Rümelin, Julian; Weidenfeld, Nathalie (2018): Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München: Piper.
Schlote, Yannick (2023): Konvergenz und Überwältigung. Die Mythen der Künstlichen Intelligenz aus theologisch-ethischer Perspektive, München/Hildesheim: Olms.
b) Zitierte Literatur
Anders, Günther (1956): Die Antiquiertheit des Menschen I, München: C.H. Beck.
Blumenberg, Hans (2001): Arbeit am Mythos, Frankfurt/M.: Suhrkamp.
Bostrom, Nick (2014): Superintelligence: Paths, Dangers, Strategies, Oxford: Oxford University Press.
Burrell, Jenna (2016): How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms. Big Data & Society, 3(1).
Couldry, Nick & Mejias, Ulises A. (2019): The Costs of Connection, Stanford: Stanford University Press.
Dachwitz, Ingo & Hilbig, Sven (2025): Digitaler Kolonialismus, Münhen: C.H. Beck.
Dreyfus, Hubert L. (1972): What Computers Can't Do, New York: Harper & Row.
Europäische Kommission (2020): Ethics Guidelines for Trustworthy AI, Brüssel.
European Council on Ethics in Science and Technology (2021): Proposal for a Regulation laying down harmonised rules on Artificial Intelligence, Brüssel.
Floridi, Luciano & Cowls, Josh (2019): A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1).
Horkheimer, Max & Adorno, Theodor W. (1947): Dialektik der Aufklärung, Amsterdam: Querido.
Kirste, Martin & Schürholz, Matthias (2019): Entwicklungswege zur KI. In: Wittpahl, Volker (Hg.): Künstliche Intelligenz. Technologie, Berlin/Heidelberg: Springer Vieweg, 21–35.
Morozov, Evgeny (2013): To Save Everything, Click Here: The Folly of Technological Solutionism, New York: PublicAffairs.
Nemitz, Paul (2018): Constitutional Democracy and Technology in the Age of Artificial Intelligence. In: Philosophy and Technology, 31(4), 549–558.
Rendtorff, Trutz (1990): Ethik, Stuttgart: Kohlhammer.
Spiekermann, Sarah (2019): Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, München: Droemer.
Teilhard de Chardin, Pierre (1959): Le Phénomène humain, Paris: Seuil.
Weizenbaum, Joseph (1977): Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt/M.: Suhrkamp.
Wiener, Norbert (1948): Cybernetics, New York: Wiley.
Winner, Langdon (1980): Do Artifacts Have Politics? Daedalus, 109(1), 121–136.
Yudkowsky, Eliezer (2008): Artificial Intelligence as a Positive and Negative Factor in Global Risk. In: Bostrom, Nick & Ćirković, Milan M. (Hg.): Global Catastrophic Risks, Oxford: Oxford University Press.