Über die Gefahren durch aktuelle KI

Gastbeitrag von xanrof über Gefahren von KI

Diskussionen über die Gefahren von sogenannten „künstlichen Intelligenzen“ (KI) sind in aller Munde. Doch solche Austausche laufen gerne mal aus dem Ruder, da nicht selten ein grundlegendes Verständnis über die Arbeitsweise einer KI fehlt. Da dauert es nicht lange bis Vergleiche zu Produkten der Science Fiction wie HAL9000 und R2D2 gezogen werden. Auch Hinweise auf Futuristen und Philosophen wie Nick Bostrom, die vor dem Auslöschen der Menschheit durch Superintelligenzen warnen, werden gerne herangezogen. Doch bis dahin ist es noch ein langer Weg.
Der folgende Text beschreibt die Prinzipien und mögliche Gefahren durch KIs in der heutigen Zeit und in der nahen Zukunft. Positive Aspekte zur Nutzung von KIs, die es ohne Zweifel zuhauf gibt, habe ich hier bewusst ausgelassen, da diese ja die Gründe für die zunehmende Verwendung künstlicher Intelligenzen darstellen. Der Text richtet sich an technische Laien.

Das Herkömmliche.

Klassische Software, die zur Erledigung spezieller Aufgaben entwickelt wurde, hat eigentlich eine sehr einfache Grundstruktur: Eingabe > Verarbeitung > Ausgabe. Es gibt Eingangsvariablen, die anfänglich mit bestimmten Inhalten gefüttert werden, und es gibt einen festen Algorithmus, der diese Eingangsdaten verarbeitet. Der Algorithmus ist ein Rechenweg, also eine Serie von fixen, mathematischen Anweisungen, der aus Eingangsdaten schließlich Ergebnisse produziert. Diese Resultate werden dann in die Ausgangsvariablen geschrieben und können von dort ausgelesen und zB auf einem Bildschirm angezeigt oder andersartig weiterverwendet werden.
Es ist wichtig zu verstehen, dass die Daten, die einmal in die Eingangsvariablen eines laufenden Programms eingegeben wurden, bis zum Ende des Programms nicht mehr verändert werden. Auch der Algorithmus ist ein fester und unveränderlicher Teil, ja gar der Kern eines jeden klassischen Computerprogramms.
Dies hat die logische Konsequenz, dass bei einem Neustart und der Wiederholung des Programmablaufes, d.h. bei identischen Eingangsdaten und unverändertem Rechenweg, stets die gleiche Lösung herauskommen muss. Das Ergebnis eines herkömmlichen Computerprogramms ist somit vorhersagbar, reproduzierbar und auch nur durch menschliche Geistesleistung überprüfbar. Ein klassischer Computer arbeitet einfach sehr, sehr, sehr viel schneller (und fehlerfreier).

Die Neuheit.

Bei Programmen, denen die Eigenschaft der künstlichen Intelligenz zugeschrieben wird, gilt dieses Kriterium nicht mehr. Sogenannte KIs sind Programme auf einer dynamischen Suche nach dem besten Weg zu einem vorab definierten Wunschergebnis. Diese Programme wiederholen sich vielfach im Ablauf, wobei die Werte der Eingangsvariablen und auch die Algorithmen selbst verändert und angepasst werden können. Das Ziel ist, für das Wunschergebnis einen optimalen Lösungs- oder Rechenweg zu erhalten.

Bereits realisiert und in Verwendung sind zum Beispiel

  • Spracherkennung (einzelne Worte, aber auch der Sinn ganzer Sätze),
  • Formulierung individueller Antworten (zB bei Alexa & Co),
  • Gesichtserkennung und biometrische Systeme
  • Verhaltenskontrolle, zB Arbeitnehmer oder ungewöhnliche Handlungen, zB plötzliches Rennen auf der Straße,
  • Auswahl von Jobbewerbern,
  • Automatisierter /Highspeed-Aktienhandel (um schneller zu sein als die Konkurrenz),
  • Erkennen eines sich anbahnenden GAUs im Kernkraftwerk,
  • Einsatz von Waffen (Drohnenschläge mit automatischer Feinderkennung), autonome Kampfroboter,
    und viele andere mehr.

Die Arbeit eines KI-Systems erfolgt in zwei Phasen:

  • Zunächst braucht es eine Trainingsphase. In dieser Betriebsart wird das System mit Trainingsdaten und dem Wunschergebnis gefüttert. Die KI-Software erkennt nun selbst den Einfluss der Veränderungen von Variablen und Funktionen auf das Ergebnis. Durch die vielfachen Wiederholungen und durch das wahllose oder systematische Durchprobieren verschiedenster Werte „lernt“ das Programm, dass beispielsweise der Wert der Variable A leicht erhöht oder eine Unterfunktion im Algorithmus angepasst werden muss, um letztlich das vordefinierte, aus Sicht der Anwender optimale Ergebnis zu finden. Es ist dabei essentiell, dass die Trainingsdaten repräsentativ für die späteren Anwendungsdaten sind.
  • Phase 2 ist die Anwendungsphase. Die zuvor in der Trainingsphase gefundenen Eigenschaften und Funktionsparameter werden nun auf reale Eingangsdaten (zum Beispiel Anschreiben und Zeugnisse von Jobbewerbern) losgelassen und liefern hoffentlich ein optimales Ergebnis. Sollten bei der Anwendung die Ergebnisse zu einem späteren Zeitpunkt nicht mehr den Vorgaben der Anwender entsprechen, dann kann man diese Sequenz wiederholen: Erst eine neue Trainingsphase mit verbesserten Trainingsdaten, dann wieder die Anwendungsphase.
    Die Nutzung in dieser anwendungsorientierten Betriebsart hat aber wenig mit echter KI zu tun und entspricht eher der Arbeit eines klassischen Computers. Allerdings können die verwendeten Algorithmen extrem komplex sein, um beispielsweise gegenüber Nutzern eine künstliche Intelligenz (oder sogar ein Bewusstsein) zu simulieren. Beispiel: Siri, Alexa, usw., wenn diese individuelle Antworten geben.

Zusammenfassend ergeben sich zwei wesentliche Konsequenzen, die ein KI-System von klassischen Programmen unterscheidet:

  • Lernfähigkeit. Die KI-Software lernt eigenständig, den besten Weg zum Ergebnis zu finden. Die Richtigkeit und wohl durchdachte Vorauswahl der Trainingsdaten ist aber entscheidend für die Qualität der späteren Ergebnisse.
  • Nichtvorhersagbarkeit, Nichtüberprüfbarkeit. Bei Programmen mit einer sehr großen Anzahl von veränderlichen Parametern lässt sich im Anwendungsfall das Ergebnis einer einzelnen Berechnung nicht mehr menschlich vorhersagen oder auch der Rechenweg nicht mehr nachträglich überprüfen. Die KI-Anlage erscheint hier als „Black Box“, und eine Qualitätskontrolle findet nur durch einen unabhängigen, zumeist menschlichen Vergleich der Soll- und Ist-Werte des Ergebnisses statt. Beispiel: Entspricht der ausgewählte Jobbewerber wirklich den Erwartungen?

Die Gefahren von KI.

Damit wären wir bei den möglichen Gefahren durch aktuelle Anwendungen von KI. Eine „Gefahr“ bedeutet ein drohender Nachteil für etwas oder jemanden. Eine Gefahr durch eine KI kann sich also ergeben, wenn die Ergebnisse der Berechnungen zu Nachteilen für eine Person, Gruppe oder Firma führen können. Aus technischer Sicht ergäbe sich eine Benachteiligung, wenn durch das Ergebnis ungewollt oder gewollt eine systematische Diskriminierung bestimmter Gruppen stattfinden sollte. Die Qualität und Zuverlässigkeit der Ergebnisse hängt jedoch wesentlich vom Trainingsprozess der KI und den dabei zur Verfügung stehenden, möglichen Trainingsdaten ab.

Allgemeiner formuliert: Eine KI kann nur funktionieren, wenn die Trainingsdaten repräsentativ für die Einsatz- und Anwendungsumgebung sind. Ändern sich Verhältnisse oder Rahmenbedingungen, dann muss die KI nachjustiert werden, d.h. sie muss mehr lernen. Allerdings kann man oft nicht vorhersagen, wie sich Bedingungen ändern. Demzufolge muss der Betrieb einer KI ständig betreut werden. Damit ergeben sich viele zusätzliche Fehleroptionen.

Ein Beispiel: Wird eine KI zur automatischen Erkennung von „verdächtigem“ Verhalten von Personen auf Bahnhöfen mehrheitlich durch die Daten von „weißen“ Menschen trainiert, dann (so hat sich gezeigt) werden überproportional häufig dunkelhäutige Menschen als falsch-positiv dargestellt, d.h. fälschlicherweise ausgewählt. Nun mag in diesem Fällen ein einzelner falscher Verdacht durch eine Personenkontrolle, d.h. durch menschliche Intervention, ausgeräumt werden können. Trotzdem ist die Ungleichbehandlung eines Menschen mit abweichenden Eigenschaften dann bereits passiert – und wird weiter passieren.

Ein anderes Beispiel: Eine große Firma, die regelmäßig viele Menschen einstellt, lagert Teile des Auswahlprozesses für Bewerber an eine KI aus, um in der Personalabteilung Kosten zu sparen. Dabei wird übersehen, dass sich die Zusammensetzung des Bewerberfeldes öfters ändert. Ohne Anpassung der Trainingsdaten und regelmäßiger Wiederholung der Trainingsphase kann die KI aber nicht richtig funktionieren. Intensivere Betreuung der Software verursacht aber zusätzliche Kosten, die man eigentlich sparen wollte, weswegen schließlich an der falschen Stelle gespart wird.

Oder: In Österreich wird gerade ein KI-System aufgebaut, dass entscheiden soll, ob Langzeitarbeitslose noch Bewerbungshilfen erhalten sollten oder -weil vermeintlich chancenlos- einfach bis zum offiziellen Renteneintritt „geparkt“ werden. Werden Betroffene in die falsche Kategorie eingeordnet, dann wird deren prekäre Situation weiter verschlimmert bzw. eine Korrektur unwahrscheinlicher. In anderen Fällen, zB bei zeitkritischen Anwendungen (Highspeed-Aktienhandel, tödliche Drohnenschläge mit vorheriger “Feind”-Erkennung), sind Korrekturen kaum bis gar nicht mehr möglich.

Bei diesen (und vielen anderen) Beispielen gilt, dass die Benachteiligungen völlig unwissentlich und ungewollt, oder mit Billigung der Organisations-, Firmen- oder Behördenleitung, oder auch nur durch Initiative einzelner MitarbeiterInnen, die verbotenerweise das System manipulieren, stattfinden können. Die „Black Box“-Charakteristik einerseits, aber auch die großen Zahlen betroffener Menschen andererseits machen es schwer, Fehler und Manipulationen zu erkennen. Falls keine Statistiken zur Zuverlässigkeit geführt werden sollten, dann könnte die systematische Ungleichbehandlung in der Gesellschaft auf lange Zeit nicht auffallen. Nur die benachteiligten Menschen spüren es und verlieren womöglich Vertrauen in etablierte gesellschaftliche Systeme oder in den Rechtsstaat.

Die Gefahren durch eine einzelne KI sind naturgemäß sehr individuell und ergeben sich durch die Art der Verwendung und der Reichweite ihrer Entscheidung. Die eigentliche Benachteiligung bei der Anwendung entsteht durch das Unvermögen, auf technische Weise ein Ergebnis auf das Optimum zu überprüfen. Kürzer formuliert: Es gibt keinen technischen Weg, um herauszufinden, ob das konkrete Resultat “gut” oder absoluter Blödsinn ist (“42” lässt grüßen). Werden eine oder viele KIs mit ihren Entscheidungen ohne Kontrolle auf sehr viele Menschen losgelassen, kann dies weitreichende Folgen für eine Gesellschaft haben. Es ist daher absolut unumgänglich, insbesondere vor aber auch während des Betriebes einer KI eine wiederholte, seriöse und unabhängige Technikfolgenabschätzung durchzuführen um diese Gefahren zu verhindern.

Die Zukunft.

Es gibt bereits Versuche, die Trainings- und Anwendungsphasen zu verknüpfen. Dies wäre ein Training „on the fly“, sprich während der Anwendung. Hier wäre der Einfluss der Trainingsdaten auf das Ergebnis noch sehr viel intensiver und die Kontrollmöglichkeiten in der Tat noch sehr viel geringer. Ob ein solches System produktiv werden kann und darf, hinge also davon ab, wieviel „Schaden“ es maximal anrichten könnte. Am Ende wird es also eine Zeitfrage sein, nämlich, ob Nutzer als letzte Instanz noch korrigierend eingreifen können.

Ferner wären Umstände vorstellbar, in denen einer einzelnen KI eine Entscheidungsbefugnis übertragen würde, die mit sehr großer Macht verbunden wäre. Denkbar wäre etwas Zeitkritisches, beispielsweise bei einer vermeintlich bevorstehenden Krisensituation ein „Not-Aus“ für die globalen Aktienmärkte oder das Internet, oder das Mobilisieren militärischer Kräfte. Auch die vollständig KI-gesteuerte Kontrolle von Industrieanlagen und Kraftwerken birgt hohes Gefahrenpotential. Nicht ohne Grund sind dies klassische Themen der Science Fiction seit der Mitte des letzten Jahrhunderts.

Noch sehr viel gefährlicher wäre wohl die Verknüpfung und gegenseitige Beeinflussung von vielen verschiedenen Systemen künstlicher Intelligenz auf multiplen Ebenen innerhalb einer Gesellschaft. Wir können über eine Gesellschaft in der nicht allzu fernen Zukunft spekulieren, in der vielleicht jede Firma ein System zur Bewerberauswahl betreibt. Diese Systeme wären sowohl untereinander als auch mit KI-Systemen in den Sozialversicherungen (Arbeitslosenbetreuung, Gesundheitsversorgung) und mit KI-Systemen in Schulen und anderen Bildungseinrichtungen verknüpft. Regierungen könnten nach ersten Erfolgen der Versuchung erliegen, den Arbeitsmarkt oder andere Bereiche vollständig computer-autonom regulieren zu lassen. Dies wäre ein Gesamtsystem mit derart hoher Komplexität, dass noch keine vernünftigen Ansagen zur Kontrollierbarkeit und Sicherheit gemacht werden können.

Die bisher beschriebenen Gefahren einer KI beinhalten bereits bedrohliches Potential. Aber es ist hoffentlich noch ein langer Weg bis die Menschheit auch nur in die Nähe des absoluten Untergangszenarios kommt, in dem Superintelligenzen eine “Technologische Singularität” realisieren und beschließen, die unzuverlässig denkenden Wasserbeutel vom Antlitz der Erde zu verbannen.

AUTOR: xanrof

BILD: xanrof

Ein großes Dankeschön an xanrof, für diesen tollen Beitrag über die Gefahren der KI!

Kommentar verfassen