Ein Algorithmus hat kein Taktgefühl
von Katharina Zweig
Heyne Verlag, 320 S., 20,00 €
Ist die Begierde einmal geweckt, kennt das menschliche Wollen (fast) keine Grenzen mehr. So landen Ilsebill und ihr Mann aus dem Grimmschen Märchen Von dem Fischer und seiner Frau nach ihrem letzten Wunsch wieder in ihrem alten Pott.*
Ein ebenso unmäßiges Wollen legen manche Informatiker:innen bei der Erforschung künstlicher Intelligenz an den Tag – schon bald, so meinen sie, werde sie der menschlichen Intelligenz überlegen sein, werde sie bessere und gerechtere Entscheidungen treffen als menschliche Richter.
Zu etwas mehr Realismus in Bezug auf künstliche Intelligenz – oder besser: maschinelles Lernen – rät die Informatik-Professorin Katharina Zweig; in Ihrem Buch Ein Algorithmus hat kein Taktgefühl zeigt sie, dass Maschinen nur dann gute Entscheidungen treffen werden, wenn ihnen vorher gesagt wird, was eine gute Entscheidung überhaupt ausmacht.
Bevor Maschinen etwas entscheiden können, muss die Informatiker:in ihnen sagen, wie eine gute Entscheidung aussieht; dieser Operationalisierung genannte Schritt scheint auf den ersten Blick recht einfach zu sein: Soll ein Computer den kürzesten Weg von einem Ort zum anderen finden, dann klingt das nach einer lösbaren Aufgabe.
Aber wie jeder weiß, der sich schon einmal über ein Navigationsgerät geärgert hat ist der kürzeste Weg oft nicht der beste – und was ist überhaupt der kürzeste Weg? – Ist es der direkte Weg von South Thoresby nach North Cothelstone Hall (natürlich über Middle Addlethorpe) oder ist es doch der etwas längere, aber schnellere Weg über die Autobahn, vorbei an an North Thurston, Thrumpton Castle, Middle Fritham und Nether Addlethorp?** – Und welche Auswirkungen hat es, wenn auf der Landstraße ein Kaiserslauterer mit 50 km/h vor einem herdrömelt?***
Die Operationalisierung basiert stets auf Entscheidungen und um die zu treffen, muss man kein Informatiker oder Computer-Nerd sein; dazu kann zum Beispiel auch ein x-beliebigen Taxifahrer aus Nether Addlethorpe eine Meinung haben. Gerade wenn Computer über Menschen entscheiden, spricht vieles dafür die Operationalisierung transparent zu machen und öffentlich zu diskutieren.
Dasselbe gilt auch für den nächsten Schritt: Die Modellierung. Damit ist gemeint, dass der Computer seine Entscheidungen aufgrund eines bestimmten Modells der Welt treffen muss. Für ein Navigationssystem zum Beispiel wird die Welt in lauter Punkte zerlegt, die mit Strecken in einer bekannten Länge verbunden sind.
Die Modellierung kann aber auch tückisch sein: Wenn der Computer zum Beispiel Zugverbindungen berechnen soll, reicht die Kenntnis des Gleisplans nicht mehr aus – denn allein mit diesem Wissen würde der Computer womöglich eine Verbindung ausrechnen, bei der der Fahrgast um 18:01 Uhr am Hundertwasserbahnhof in Uelzen ankommt, um den Zug 7:56 Uhr nach Berlin Ostbahnhof zu nehmen – ein Ergebnis mit dem nur Zeitreisende etwas anfangen können. Daher müssten die verschiedenen Abfahrts-, Ankunfts- und Umsteigezeiten in das Modell eingearbeitet werden.****
Die Modellierung ist auch der Schritt, bei dem das maschinelle Lernen zum Einsatz kommt, nämlich indem man den Computer mit einem Datenset – dem Trainingsdatenset – nach Korrelationen suchen lässt, aus denen er sich dann sein Weltbild zusammenbastelt. Im nächsten Schritt kann die Programmierer:in dann die Qualität des Modells prüfen, in dem sie diese auf ein weiteres Datenset – das Testdatenset – anwendet; das entscheidende ist: Beim Testdatenset kennt zwar die Programmierer:in das Ergebnis – der Computer nicht.
Die Modellierung ist abgeschlossen, wenn der Computer die Daten aus dem Testdatenset ausreichend gut vorhersagt, wenn also der Qualitätsmaßstab der Programmierer:in erfüllt ist.
Dieser Prozess ist nicht objektiv und extrahiert aus den Daten auch keine Wahrheit. „Beim maschinellen Lernen gibt es viele Stellschrauben, an denen ‚händisch‘ gedreht wird – genau darüber kann auch ohne Expertenwissen diskutiert werden.“
Wirkliches Expertenwissen braucht es eigentlich nur bei der Auswahl der passenden Handlungsanweisung für den Computer, dem Algorithmus – denn ein sinnvolles Ergebnis wird sich nur ergeben, wenn Operationalisierung, Modellierung und Algorithmus gut aufeinander abgestimmt sind; Zweig nennt das das „OMA-Prinzip“.
Das von der Maschine konstruierte Modell ist jedoch mit Vorsicht zu genießen: Denn es basiert auf vom Computer in einer großen Datenmenge gefundenen Übereinstimmungen (Korrelationen) – und das Bestehen einer Korrelation ist kein Beweis für einen kausalen Zusammenhang zwischen zwei Beobachtungen; sie kann bloßer Zufall sein.
Sehr eindringlich weist Zweig darauf hin, dass ein solches Vorgehen der wissenschaftlichen Methode widerspricht. Statt weiter die Belastbarkeit der ermittelten Korrelation zu prüfen, nimmt der Computer sie einfach als Grundwahrheit hin – selbst wenn ein Mensch sie auf den ersten Blick als unsinnig verwerfen würde.
Ein anderes Problem ist, dass das vom Computer gelernte Modell diskriminierend sein kann: Denn wenn das Trainingsdatenset diskriminierende Entscheidungen enthält, dann wird der Computer die Diskriminierung einfach mit lernen.
Selbst wenn er laufend weiter lernt, muss das nicht zum Verschwinden der Diskriminierung führen, sondern kann sie schlimmstenfalls durch einseitiges Feedback sogar verstärken: Wenn der Computer zum Beispiel über die Vergabe von Arbeitsplätzen oder Krediten entscheidet, wird er zwar davon erfahren, wenn einmal angenommene Bewerber:innen scheitern, jedoch nie, ob abgelehnte Berwerber:innen sich vielleicht doch bewährt hätten. Die Folge: Er wird immer mehr Bewerber:innen aussortieren – und immer weniger Menschen bekommen einen Arbeitsplatz oder einen Kredit.
Zweig schlägt vor, Entscheidungen durch Computer nur dann zuzulassen, wenn der zu erwartende Nutzen den (potentiellen) Schaden überwiegt: Unproblematisch können daher Computer zum Beispiel in der Autoproduktion Spaltmaße prüfen. Bei anderen Entscheidungen durch Computer kommt es einerseits auf das Schadpotential an, und andererseits auf die Möglichkeiten sich gegen falsche Entscheidungen zu wehren. So können bereits Empfehlungsalgorithmen auf Videoportalen oder zur Sortierung eines Newsfeeds ein gewisses Schadpotential haben – und sollten gut überwacht werden und transparent sein. Anwendungen mit großem Schadenspotential dagegen möchte Zweig verbieten: So sollte ein Computer nicht die Rückfallwahrscheinlichkeit eines Straftäters berechnen, damit sein Strafmaß bestimmt werden kann. Die von ihr verwendete Einscheidungsmatrix nennt sie „Algoskop“.
Gerade das mächtigste Werkzeug des maschinellen Lernens, das neuronale Netzwerk, schneidet unter dem „Algoskop“ ziemlich schlecht ab; denn es ist in seiner Struktur so komplex, dass sich sein Verhalten nicht mehr abstrakt vorhersagen oder beschreiben lässt.
Ich habe es zunächst bedauert, dass Zweig sich den neuronalen Netzwerken nur so kurz widmet, denn: „Tatsächlich sind es ja die neoronalen Netwerke, denen wir die ganze Diskussion im Augenblick verdanken.“ – Nach einigem Nachdenken, bin ich aber zu dem Ergebnis gekommen, das Zweigs Entscheidung durchaus richtig war. Eine vernünftige Einführung in das Thema neuronale Netzwerke hätte das Buch (vermutlich) deutlich länger gemacht; und das ohne an seiner Grundaussage etwas zu ändern.
Die Annahme, dass Computer bessere Entscheidungen über Menschen treffen können, ist aber auch wegen des dahinterstehenden Menschenbildes höchst problematisch: „Der Einsatz von Methoden des maschinellen Lernens geht auch hier davon aus, dass das Beobachten des Verhaltens von Menschen […] nur von den messbaren Eigenschaften einer Person abhängt.“ – Demgegenüber kommt es weder auf den Kontext des Verhaltens an, noch auf die innere Motivation.
Leider bleiben Zweigs Ausführungen an diesem Punkt etwas vage; hier hätte ich mir einen deutlicheren Hinweis darauf gewünscht, dass dieses Behaviorismus genannte Weltbild einerseits schon heute die Grundlage vieler maschineller Entscheidungen ist – zumal wenn diese von amerikanischen Internetgiganten getroffen werden – und das dieses Weltbild außerhalb des Silicon Valley (und zumal in Europa) höchst umstritten ist.
Eben weil Zweig selbst an diesem Weltbild erhebliche Zweifel hat, kommt sie zu dem Ergebnis: Algorithmische Einscheidungssysteme sollten bestenfalls in seltenen Ausnahmefällen und unter sorgfältiger Überwachung Entscheidungen über Menschen und ihren Zugang zu gesellschaftlichen Ressourcen treffen. Bis auf weiteres sind sie nicht in der Lage, das komplexe Nebeneinander von Handlung, Kontext und Motivation zu entwirren, das jeder menschlichen Handlung zu Grunde liegt.*****
Damit einer künstlichen Intelligenz das jemals gelingen kann, müsste eine passende Operationalisierung gefunden werden; Zweig hat große Zweifel, ob eine solche Funktion menschenmöglich ist.
Dennoch muss die Diskussion, ob es eine solche starke künstliche Intelligenz geben sollte bereits jetzt geführt werden, ebenso wie die Diskussion, welche Entscheidungen Computer treffen sollten und welche nicht. Mit ihrem Buch liefert Zweig eine anschauliche, oft launig und amüsant geschriebene, Einführung in das Thema. Anschaulich zeigt sie: Auch Nicht-Informatiker:innen können (und müssen) sich an vielen Punkten einmischen, wenn sie die Zukunft mit gestalten möchte.
Für Zweig allerdings ist klar: Computer sollten nicht richten und nicht dichten – und eine starke künstliche Intelligenz sollte es nicht geben. Dass Ilsebills letzter Wunsch nicht in Erfüllung gegangen ist, war kein Fluch, sondern ein Segen.
Anmerkungen:
Das Bild zu diesem Beitrag stammt aus den Wikimedia Commons und wurde dort unter einer Creative Commons-Lizenz als gemeinfrei veröffentlicht; die genaue Bildquelle findest du [hier].
* An dieser Stelle möchte ich anmerken, dass ich nicht glaube, dass Ilsebills Streben nach Allmacht eine typisch weibliche Eigenschaft ist; in den vergangenen Jahrhunderten haben sich Männer in dieser Hinsicht viel mehr hervorgetan und dabei viel mehr Leid angerichtet; die – auch nicht ganz unproblematische – Langfassung zu dieser Anmerkung liefert Günther Grass in seinem Roman Der Butt.
** Die Wegbeschreibungen habe ich der Inhaltsangabe von Loriot entnommen; für alle die Lust bekommen haben: Das Original findet sich [hier].
*** An dieser Stelle eine herzlichen Gruß an den Ehemann der Autorin, verbunden mit dem Wunsch, dass er sein Blitz-Trauma überwunden haben möge 😉
**** Vielleicht sollte mich das etwas nachsichtiger stimmen, wenn das nächste Mal der DB Navigator (oder die Mitarbeiter:in im Reisezentrum) nicht auf Anhieb die Zugverbindung findet, die ich eigentlich haben wollte.
***** An dieser Stelle einen kleinen Spoiler: Ich beabsichtige am 30.04.2021 das Buch Gewalt und Mitgefühl – Eine Biologie des menschlichen Verhaltens von Robert Sapolsky zu besprechen, in dem es um die Frage gehen wird, wie menschliches Verhalten entsteht.