Künstliche Intelligenz und Ethik Von der Unberechenbarkeit moralischer Erwägungen

Künstliche Intelligenz (KI) ist das Thema der Stunde, spätestens, seit ChatGPT im November 2022 für die breite Öffentlichkeit zugänglich gemacht wurde. Aber können wir mittels KI auch zu ethischen Entscheidungen kommen?

KI ist im Alltag angekommen

KI ist kein Abstraktum mehr, sondern greifbar. Sie kann bei Aufgaben aus dem Lern- oder Arbeitskontext helfen. Sobald verschiedene KI-basierte Systeme genutzt wurden, wird den Anwenderinnen und Anwendern bewusst, dass es „die KI“ nicht gibt. Vielmehr haben wir es mit einer Vielzahl von mehr oder weniger anwendungsspezifischen Systemen zu tun. Zumeist beruhen sie auf dem Prinzip des maschinellen Lernens und sind das Resultat einer Zusammenführung von Informatik und Stochastik. Aber sie sind weit davon entfernt, so etwas wie eine Artificial General Intelligence (AGI), also eine starke KI, zu sein.

Der Alarmismus, der aus Büchern wie Superintelligence (Nick Bostrom) oder Homo Deus (Yuval Harari) einen Weg in die gesellschaftlichen – mithin auch kirchlichen – Debatten gefunden hat, scheint eine Pause eingelegt zu haben. Die Alltäglichkeit, mit der KI-basierte Anwendungen auch von Nichtexpertinnen und -experten eingesetzt werden, hat Aufklärungs- und damit auch Entzauberungsarbeit geleistet. Das Übersetzen von Texten, das automatisierte Anlegen von Geld, die Formulierung von Textvorschlägen, Routenplanung und vieles mehr kann durch Software, die auf dem Prinzip der Mustererkennung basiert, sehr viel schneller und oft auch besser als vom Menschen realisiert werden.

Wen soll ein Auto im Falle eines Unfalls „opfern“?

Der Medienbischof der EKD, Volker Jung, hat vor fünf Jahren mit der Forderung, »[d]igital Mensch [zu] bleiben« einen christlich orientierten Aufruf zur Mitgestaltung der Digitalisierung (ironischer- oder muss man sagen: konsequenterweise?) in Buchform vorlegt. Er versteht dieses Gestaltungsanliegen richtigerweise als politisches. Die damals schon virulente Frage nach dem Umgang mit KI-basierten Systemen wurde oft prototypisch an der Frage nach den ›Entscheidungen‹ selbstfahrender Autos durchexerziert. Wen solle das Auto im Falle eines unvermeidbaren Unfalls opfern: die Insassen oder Menschen außerhalb des Autos? Nach welchen Kriterien? Die teilweise an Absurdität grenzenden Szenarien, die man u.a. im Rahmen eines weltweiten Experiments mit dem Titel Moral Machine Project bis heute (Stand: Dezember 2023) durchspielen kann, liefern einen wichtigen Hinweis auf die bisweilen anderen ethischen Problemstellungen mit derartigen Systemen.

Klassische Ethiken kennen keinen nichtmenschlichen Akteur

Das Feld der angewandten Ethik wurde viele Jahre von Fragen der biomedizinischen Ethik dominiert, die sich um das Leben und dessen (Fremd-)Gestaltung drehten – sowohl bezogen auf seinen Anfang, den Verlauf als auch auf das Ende. Die dort verhandelten Fragen waren einerseits existentiell, andererseits aber aufgrund der (glücklicherweise in der Regel) eigenen Nichtbetroffenheit gleichzeitig auch abstrakt. Sie waren aber grundsätzlich von Menschen für den Menschen verhandelbar.

Es gibt einen wesentlichen Unterschied in den ethischen Fragen, die sich auf unsere gegenwärtige KI-Technologie beziehen. In der Bioethik waren der Fragehorizont klar sowie die zur Verfügung stehenden Mittel, um diese Fragen zu bearbeiten. Entweder, indem man sich Orientierung an eher abstrakten ethischen Programmen verschiedener Herkunft verschaffte (Utilitarismus, Prinziplismus etc.) oder aber indem man intuitionsgeleitet vorging. Diese etablierten Verfahren büßen aber dort ihre Problembearbeitungskompetenz ein, wo ein nichtmenschlicher Akteur ins Spiel kommt.

Berechnung des Unberechenbaren

Die Aufgabe, Ethik in KI-Systeme zu implementieren, ist alles andere als trivial. Es gibt zwar eine stetig wachsende Menge an Richtlinien und Kodizes, die etwa Vorstellungen von fair und frei von ungewollter Diskriminierung arbeitenden Systemen artikulieren. Die Umsetzung derselben steht jedoch vor dem großen Problem eines dafür nötigen Paradigmenwechsels in der Ethik. So geht es nicht mehr darum, eine konkrete Entscheidung für ein konkretes Problem zu fällen, z.B. ›Bekommt Person A einen Kredit?‹ oder ›Besteht hinreichender Verdacht, dass Person B einen Sozialhilfebetrug begeht, sodass entsprechende Maßnahmen eingeleitet werden müssen?‹. Es müssen nun formale Regeln für Konzepte, für die es keine strenge Definition gibt, erstellt werden. Ethische Erwägungen müssen operationalisiert, Kriterien müssen fixiert, Schwellenwerte müssen festgelegt werden. Kurz: ethische Erwägungen, die immer – mindestens mittelbar – auch Teil von durch Menschen gestalteten Prozessen mit Handlungsspielraum sind, müssen berechenbar gemacht werden, um Entscheidungen (teil-)automatisieren zu können.

In der Berechenbarkeitsforderung liegt das Kernproblem der Digitalisierung von Ethik.

Doch in genau dieser Berechenbarkeitsforderung liegt das Kernproblem der Digitalisierung von Ethik. Wenn wir Ethik als eine Kulturtechnik verstehen, die es uns erlaubt, moralische Probleme zu verhandeln, dann liegt es zunächst nicht auf der Hand, dass wir es hier mit einem Prozess der Organisation unseres Zusammenlebens zu tun haben, der von einer gewissen Unter- bzw. Unbestimmtheit zu leben scheint. Formelhafte Ansätze wie Kants Kategorischer Imperativ oder kalkulierende Ansätze wie der Utilitarismus zeichnen ein Bild von Ethik, das diese zumindest in die Nähe einer Algorithmisierbarkeit rückt. Auch lehrbuchartige Ansätze, z.B. jene sechs Schritte zur Urteilsfindung von Heinz E. Tödt, suggerieren, dass es einen allgemeinen und nachzeichenbaren Weg vom Problem zur Entscheidung gibt.

Jenseits jeder situativ durchgeführten Erwägung

Solange diese Verfahren auf zwischenmenschlicher Ebene angewandt werden, funktionieren sie, obgleich Abstrakta in die Praxis übersetzt werden müssen. Wenn wir zum Zwecke der Implementierung von Ethik in KI-Systeme aufgefordert sind, ganz konkret festzulegen, was wir mit Gerechtigkeit oder Gleichbehandlung meinen, werden uns die Grenzen unserer Ethik vor Augen geführt. Weil diese Festlegungen dann ihrerseits den – zumindest temporär – unveränderlichen Maßstab für die Bearbeitung der Angelegenheiten real existierender Schicksale darstellen, stellt sich die Frage, wie man mit den Unbestimmten umgehen soll: Wenn die zweite Nachkommastelle eines Werts darüber entscheidet, ob jemand die Genehmigung eines Antrags erhält oder zum Teil eines Ermittlungsverfahrens wird, dann werden nicht nur ökonomische Fragen hinsichtlich der Ressourcenallokation laut, sondern auch Fragen der Gestaltung des gesellschaftlichen Miteinanders: Wie stehen Vertrauen und Verdacht – zwei ebenfalls wieder schwer zu operationalisierende Konzepte – zueinander? Wie sollen Maschinen bzw. Kalküle in unsere Leben eingreifen und diese mitgestalten?

Die Unvollkommenheit des Menschen ist kein Makel.

Im Prinzip ist es dann wie beim selbstfahrenden Auto: Berechnungen anstelle von situativ durchgeführten Erwägungen entscheiden (zumindest zum Teil) über Schicksale. Das muss nicht heißen, dass sich alles zum Schlechteren wendet. Günther Anders hat vor knapp 70 Jahren in seinem Werk Die Antiquiertheit des Menschen vor dem Hintergrund dessen, dass der Mensch in seiner Existenz gerade keine Maschine ist, dessen Unvollkommenheit beschrieben. Diese ist aber – gerade angesichts der Herausforderungen der Gegenwart – kein Makel.

Grenzen der Ethik und Grenzen der Technik

Der vermeintliche Makel der Imperfektion, der darin besteht, dass wir bisweilen widersprüchlich Handeln, unlogische Präferenzen haben und mit unterbestimmten Konzepten unser Zusammenleben organisieren – kurz: dass wir gerade nicht wie Maschinen leben – ist bei genauer Betrachtung gar keiner. Der Aufforderung Volker Jungs, dass wir »[d]igital Mensch bleiben« sollen, kommen wir somit unweigerlich nach, wenn wir im Bestreben, Ethik berechenbar machen zu wollen, die Grenzen der Ethik erfahren.

KI-basierte Systeme werden sich uns nicht als Deus ex machina präsentieren, als Gott aus der Maschine, der erscheint und alle unsere Probleme mit Gerechtigkeit, der unbotmäßigen Diskriminierung sowie der Gleichbehandlung löst, die wir bisher nicht zu lösen im Stande waren. Ein Informatiksystem, das auf Berechnungen angewiesen ist, um Ergebnisse zu präsentieren, berechnet auch dort solche, wo kein Sinn im Errechneten besteht. An diesen Stellen kommt der Mensch mit seinem Wissen um seine Fehlbarkeiten ins Spiel, das uns vor falschen technischen – wenn auch innerweltlichen – Erlösungsversprechen bewahren wird.

Der menschliche Umgang mit moralischen Fragen

Wenn ein Alarmismus angesichts der momentan sehr anwendungsspezifischen KI-Systeme überhaupt angebracht ist, dann nicht, weil ein Computer die Menschheit auslöschen könnte, sondern weil die Gefahr besteht, dass uns technische Lösungsangebote so verlockend erscheinen, dass wir unsere Problembeschreibungen ihnen entsprechend anpassen. Mit Blick auf die Ethik kann davor nur gewarnt werden. Gerade die fehlenden strengen Definitionen, die nicht vorhandenen Grenzwerte und die Möglichkeiten, sich gegen das Naheliegende entscheiden zu können, zeichnen einen Umgang mit moralischen Fragen aus, die so – zumindest bis heute – nur der Mensch für den Menschen vollziehen kann.

Zum Weiterlesen

Schreiben Sie einen Kommentar