Tagungshaus
Die Zahlen sind eindeutig und sie sind gewaltig. Hunderte Milliarden fließen aktuell in Rechenzentren, Chips und Infrastruktur. Gestern hieß es wieder: „Neue Rivalen fordern Google mit Hilfe Künstlicher Intelligenz heraus – KI Investitionen zahlen sich aus.“ Oder „Megatrend: Microsoft, Amazon, Alphabet – Tech Giganten zünden den KI Turbo.“ Die großen Technologiekonzerne investieren derzeit immense Summen in Künstliche Intelligenz, Zahlen, die noch vor wenigen Jahren unvorstellbar waren. Gleichzeitig werden Stellen gestrichen, Berufszweige in ihrer aktuellen Form hinterfragt oder bereits gravierend verändert, Prozesse verdichtet, Entscheidungen beschleunigt. Das ist er eben, der Preis des Fortschritts. Das alles ist notwendig. KI duldet keinen Aufschub. Wer wartet, verliert und verschwendet Zeit.
Das ist richtig und klingt plausibel. Aber es ist nach wie vor nicht die ganze Wahrheit. Denn die eigentliche Frage lautet nicht, ob diese Entwicklung weitergeht und Anwendung findet. Sondern wie wir sie deuten – und was wir aus ihr machen. Es ist nichts Neues. Es geht nicht nur um einen technischen, sondern auch um einen ethischen Zugang.
Künstliche Intelligenz ist nichts anderes als ein Instrument. Ein mächtiges, ohne Zweifel. Sie kann analysieren, prognostizieren, optimieren. Ist in bestimmten Bereichen mittlerweile um Längen besser als der Mensch selbst. Sie erweitert menschliche Handlungsmöglichkeiten dadurch erheblich und übernimmt problemlos wiederholende Aufgaben oder gut programmierbare Tätigkeiten. Wer das kleinredet, verkennt ihren Wert.
Aber genau darin liegt die Anfrage: Mehr Möglichkeit bedeuten nicht weniger Verantwortung – sondern mehr. Mit einem Zwinkern gesagt, Künstliche Intelligenz (KI) braucht auch „Katholische Intelligenz“ (KI) – eine moralisch verantwortete Schlagzeile auf der anderen Seite, was christliche Ethik eben bieten kann.
Mit wachsender technischer Leistungsfähigkeit steigt die Tendenz, Entscheidungen als Ergebnis von Systemen zu beschreiben. Nicht mehr „jemand“ entscheidet, sondern „das Modell legt nahe“, „die Daten zeigen“ oder „der Algorithmus empfiehlt“. Das ist nicht einfach sprachliche Bequemlichkeit. Es verändert die Struktur von Verantwortung. Aber Entscheidungen verschwinden nicht. Sie werden vorbereitet, gerahmt, vorgeprägt. Aber sie bleiben Entscheidungen. Nur tritt derjenige, der sie trifft, zunehmend in den Hintergrund. Darin liegt die problematische Verschiebung. Verantwortung ist nicht delegierbar, weil sie an das handelnde Subjekt gebunden bleibt – auch unter komplexen Bedingungen (vgl. Frido Ricken).
Man kann das für harmlos halten. Schließlich erhöht KI die Qualität von Entscheidungen. Sie reduziert Fehler, macht komplexe Zusammenhänge sichtbar, entlastet von Routine. All das stimmt. Aber es greift zu kurz. Denn gute Entscheidungen sind nicht nur eine Frage richtiger Daten. Sie sind immer auch eine Frage der Gewichtung, der Abwägung, der Zumutbarkeit, des Humanen. Und genau das kann kein System leisten.
Organisationen können KI so einsetzen, dass sie Entscheidungen transparenter und reflektierter macht. Oder so, dass sie Verantwortung verdünnt und verteilt, bis sie nicht mehr greifbar ist. Beides ist möglich. Aus ethischer Perspektive entscheidet sich hier mehr als eine Frage der Effizienz. Es geht um die Fähigkeit, Urheberschaft zu behalten. Also sagen zu können: Diese Entscheidung ist getroffen worden – und wir stehen dafür ein. Auch dann, wenn ein System daran beteiligt war. Gerade für Organisationen mit einem normativen Anspruch ist das entscheidend. Wer vom Menschen her denkt, kann sich nicht damit begnügen, Entscheidungen nur zu optimieren. Er muss sie verantworten. Denn „[d]er Mensch ist dazu berufen […] mitzuwirken und nicht nur passiver Konsument von Inhalten zu sein, die durch künstliche Technologie erzeugt werden“ (Papst Leo XIV.)
Technologiekonzerne investieren hohe Summen in Künstliche Intelligenz. Doch: Optimierung und mehr Möglichkeiten bedeuten nicht weniger Verantwortung - so Hannes Groß in seinem sozialethischen Standpunkt.