Künstliche Intelligenz und die Vermessung der Gesellschaft

Künstliche Intelligenz wirkt heute nicht nur im engen Rahmen der Automatisierung und Robotik, sondern dient Unternehmen und Staaten dazu, Gesellschaften und Individuen zu vermessen, zu beeinflussen und zu kontrollieren. Es stellt sich die Frage nach Freiheitsrechten und Privatsphäre.

In der Schule mussten im Deutschunterricht endlos viele Erörterungen verfasst werden. Deren Struktur bestand darin, die negativen und die positiven Ansichten eines Sachverhalts zu erörtern; ein beliebtes Beispiel hatte die Überschrift „Fluch und Segen der Technik“. Ein Schüler heute könnte ausführen, dass besonders mit Hilfe der Künstlichen Intelligenz (KI) große Fortschritte im Bereich der Medizin ermöglicht wurden, z.B. in der Bilderkennung von Tumoren oder der Analyse der Struktur von Viren wie Sars-CoV2. Der Aspekt des Fluches ließe sich mit militärischen Entwicklungen diskutieren, z.B. Drohnen, die selbsttätig Ziele identifizieren und bekämpfen. Das Ergebnis bestünde mehr oder weniger in einem Sowohl (Segen) und Als-auch (Fluch). Sicher ist, dass es Gewinner und Verlierer geben wird, wenn es um die Anwendungen von KI und auf ihr basierenden Techniken geht, da es sich um ein Gebiet handelt, in welchem Begriffe wie soziale Gerechtigkeit kaum vorkommen.

Die Vision des Transhumanismus

Die zentrale Idee in den Theorien der KI besteht in der Annahme, dass sich in und aus Materie Intelligenz entwickelt habe und sich in einem zweiten Schritt künstlich herstellen lasse. Die treibende Theorie, die in den Silikon-Valleys dieser Welt und bei zahlreichen Menschen, die MINT-Fächer studierten, anzutreffen ist, heißt „Transhumanismus“, bei manchen auch „Posthumanismus“. Wir seien, so die These, in ein Entwicklungsstadium eingetreten, in welchem sich das Menschsein radikal verändere. Der Traum von einem ewigen Leben und ewiger Jugend sei realisierbar, dies aber nur mit Hilfe von KI. Aus diesem Grunde müsse a) die Welt für informationsverarbeitende Maschinen „lesbar“ gemacht und b) die kognitiven Vorgänge eines menschlichen Gehirns in diesen Maschinen nachgebildet werden. Lesbar bedeutet, dass große Mengen an Daten in die Maschinen eingegeben werden müssen, damit diese Strukturen und Muster erkennen können. Verwertet werden die Spuren, die die User/Nutzer in den unterschiedlichsten Systemen der digitalisierten Welt hinterlassen (Big Data, wissensbasierte Systeme). In einem zweiten Schritt werden neuronale Netzwerke des menschlichen Gehirns nachgebildet. Zum statistisch-graphischen Vorgehen kommt das logische.

Wer kontrolliert die digitalen Systeme?

Das Schlüsselwort hierfür ist der Algorithmus, eine Anleitung, wie man nach und nach ein bestimmtes Ergebnis erreichen kann, vergleichbar einem Kochrezept. Da diese Algorithmen heute dank ihrer Komplexität kaum mehr nachvollziehbar sind, stellt sich schon an diesem Punkt die Frage, wer die Kontrolle über die digitalen Systeme ausübt. Das muss als problematisch betrachtet werden, denn KI-Systeme repräsentieren nicht nur Wissen, helfen nicht nur beim Planen und Suchen, sondern werden für automatische Bewertungen (z.B. Urteilsfindung in der Justiz, medizinische Triage im Seuchenfall, Zahlung oder Verweigerung von Arbeitslosengeld) eingesetzt. Problematisch sind sie auch, da KI als Künstliche Neuronale Netze (KNN) „trainiert“ und nicht mehr durch einen Informatiker programmiert werden. Es handelt sich um selbsttätig lernende Systeme (self-supervised), die aus Daten lernen, die in der Vergangenheit digitalisiert wurden. Und das bedeutet, dass aus in der Vergangenheit liegenden Daten Prognosen für die Zukunft erstellt werden. Wie sollte auch ein Algorithmus den Unterschied von Geschichte und einer möglichen Zukunft erkennen können?

KI-Systeme werden auch für automatische Bewertungen und Entscheidungen eingesetzt.

KNN und KI sind somit nicht nur fehleranfällig – ein schönes Beispiel aus dem Sprachbereich, das häufig zitiert wird, ist die Übersetzung von „Kernseife“ in „nuclear soap“ – und häufig genug undurchsichtig, sondern können dazu beitragen, gesellschaftliche Zustände zu verfestigen. (Dazu wird bisher in einem kleinen Maßstab im Bereich der explainable AI, der erklärenden KI, geforscht.) Manche Entscheidungen, die auf der Basis von KI getroffen werden, können aus den genannten Gründen schlicht als menschenrechtswidrig oder diskriminierend bewertet werden. Als letzter bedenklicher Punkt sollte bedacht werden, dass diese Systeme mit ihren eigenen Techniken angreifbar sind (adversarial attacs) und dabei Daten und Ergebnisse durch eine Vielzahl von Hackern und Troll-Fabriken manipuliert (z.B. Produktion von Fake News, Beeinflussung von Wahlen) oder gekapert (Schadprogramme, Ransomware) werden können.

Auskundschaftung des Individuums

Die Zahl der Anwendungen dieser Systeme in der globalen Welt ist riesig; es kommt immer darauf an, zu welchen Zwecken sie eingesetzt werden. Das bedeutet, dass eine hohe Transparenz bei Anbieterfirmen, Auftraggebern und Anwendern vorhanden sein müsste. Ein wirklich schwacher Versuch, diese Transparenz zumindest in Teilen zu erreichen, ist die „Europäische Datenschutz-Grundverordnung“ (2018). Gerade der Skandal um die Firma „Cambrigde Analytica“, die nicht nur die amerikanischen Wahlen (2016), sondern auch die Brexit-Entscheidung in England beeinflusste, verweist auf die Wichtigkeit von Kontrolle und einem rechtlichen Rahmen, der den Einsatz von KI und digitalen Systemen festlegen sollte. Die Notwendigkeit sinnvoller Regelungen betrifft die Bereiche des individuellen Lebens ebenso wie die von Staaten und Verwaltungen, Organisationen und Institutionen, Firmen, Bildungseinrichtungen oder das Militär.

Das Ziel des Auskundschaftens, der Erfassung (Clusterbildung) und Bewertung auf einem rasend wachsenden Markt sind die einzelnen Menschen, die Individuen. Ein kleines Beispiel, eine bekanntere Suchmaschine im Internet betreffend: Die Nachfrage, welche Daten über mich gespeichert sind und von dem Unternehmen herausgegeben wurden, ergab in 64 Punkten ein sehr sauberes Persönlichkeitsprofil von mir, lediglich zwei Angaben waren nicht korrekt. Die vorhandene Datenmenge über meine Person bei dieser Maschine muss enorm sein, ausgedruckt ungefähr 30.000 Seiten.

Das Ziel: der gläserne Kunde…

Unternehmen sammeln Daten von uns, wenn wir uns im Internet bewegen, z.B. in einer Online-Zeitung einen Artikel lesen. Um dies zu dürfen, muss eine Erklärung bestätigt werden, in welcher man „akzeptiert“, dass jede Menge Daten erhoben werden dürfen. Bei einer Zeitschrift, die für diesen Beitrag konsultiert wurde, waren ca. 280 Unternehmen aufgelistet, denen meine Zustimmung Zugriff auf Information über mich erlauben sollte. Ein deutscher Dienstleister, der gerade wegen einer geplanten Datenbank zu „Bonushoppern“ auf dem Strommarkt öffentlich kritisiert wurde, verfügt nach Auskunft von Wikipedia über die Daten von ca. 68 Mio. natürlichen Personen und 6 Mio. Unternehmen, die zum Verkauf angeboten werden. Dazu gehören Daten, die kaum ein individueller Nutzer preisgeben möchte, auch nicht freiwillig preisgab, wie Kreditverträge, Konten, Kreditkartenbesitz, Laufzeitverträge, Kundenkonten, abweichendes Zahlungsverhalten mit gerichtlichen Entscheidungen, Abweisungen durch Banken und Unternehmen und jede Menge Daten mehr. Das Ziel ist klar: der gläserne Kunde. Diese Daten (Big Data) werden automatisiert ausgewertet, um zielgenaue Werbung platzieren zu können.

… und die kontrollierte Bürgerin

In diesen Bereich gehören auch Konzepte wie „smart home“ und „smart city“. An Angeboten der Kontrolle und Überwachung fehlt es nicht: Nicht nur der Kopf mit seinen Wünschen und Bequemlichkeiten soll beeinflusst werden, auch der Körper unterliegt der Kontrolle. Das Zauberwort dazu lautet: Selbstoptimierung. Kaum auf den Hometrainer gestiegen und das Übungsprogramm heruntergeladen, schon werden Daten über die Gesundheit abgesaugt. Für das gesellschaftliche System, das damit aufgebaut wurde und wird, hat die Sozialwissenschaft den Begriff „Überwachungskapitalismus“ eingeführt. Shoshana Zuboff beschrieb diese neue Marktform als Versuch, die Souveränität in Demokratien zu beenden und eine gesellschaftliche Ordnung auf der Grundlage totaler Gewissheit über die Bürger zu erlangen.

Algorithmic Governance, das Regieren mit Hilfe von Algorithmen, ist schon längst Realität.

Auch Staaten, besonders autoritär regierte, zeigen ein hohes Interesse an den Leistungen der KI für die Überwachung ihrer Bürger. Berühmt wurde das seit 2014 durch den Staatsrat Chinas eingeführte Social-Credit-System. Es sammelt Daten über die kommerzielle Integrität (Bonität), die soziale Integrität, die Akzeptanz von Entscheidungen des Staates (honesty in government affairs) und die Frage, ob Bürger gegen Entscheidungen des Staates vor Gerichten klagten oder in Strafverfahren vor dem Richter standen. Auch Daten großer Unternehmen und Äußerungen in Sozialen Medien fließen für die Bewertung einer Person in die Sammlung ein. Das nun durch automatisierte Verfahren erfolgte Rating hat für die einzelnen Bürger Konsequenzen. Im negativen Fall wird die Internetgeschwindigkeit massiv heruntergesetzt, Reisebeschränkungen können erlassen werden oder es müssen höhere Steuern entrichtet werden. Im positiven Fall erhalten Bürger schnelle Kredite für ihren Konsum oder Visa für Auslandsreisen.

Die Algorithmic Governance, das Regieren mit Hilfe von Algorithmen, ist schon längst Realität geworden, nicht nur in China. Es stellt die Frage nach den Freiheitsrechten und der Privatsphäre in einer vermessenen Gesellschaft – und zwar dringend auch hier bei uns.

Zum Weiterlesen

Schreiben Sie einen Kommentar