Überall hören wir von KI – Künstlicher Intelligenz. Und von Algorithmen, die unser Leben bestimmen. Klingt alles schrecklich kompliziert. Eigentlich. Aber wir müssen gar nicht alle zu Supernerds werden, um mitreden zu können, findet Stephanie Borgert.

Stephanie Borgert ist studierte Ingenieurinformatikerin. Heute arbeitet sie freiberuflich als Autorin, Speakerin und Beraterin. Ihr Spezialgebiet: Komplexität. Das heißt, ihr Job ist es, komplexe Zusammenhänge zu verstehen, zu analysieren – und sie trotzdem verständlich zu vermitteln. Perfekte Voraussetzungen, um sich mit ihr zusammen dem Thema KI zu widmen – Künstliche Intelligenz. Und da gibt es schon gleich das erste Definitionsproblem:

„Es gibt keine Künstliche Intelligenz – Stand heute. Denn das hieße ja, dass die menschliche Intelligenz nachbildbar ist. Das ist sie nicht, weil wir unser Gehirn, wie es wirklich funktioniert, bis heute nicht verstanden haben und was wir nicht verstanden haben, können wir auch nicht abbilden.“

– Stephanie Borgert –

Wenn es um das Thema Menschen und Roboter geht, findet Stephanie, sind wir heute nicht viel weiter als Ende der 80er oder Anfang der 90er Jahre. Das war die Zeit, in der sie Informatik studiert hat. Wir diskutieren immer noch über die gleichen Themen – nämlich welche Arbeitsplätze durch Roboter verloren gehen – dabei hat sich an der Stelle so schrecklich viel gar nicht getan. Aber: Wir haben riesige Fortschritte gemacht, was Technologien, Rechenkapazitäten und die damit verbundenen technische Möglichkeiten angeht.

Problematisch sind allerdings die Begrifflichkeiten mit denen wir in der Debatte um den Einsatz dieser Möglichkeiten hantieren. Denn Intelligenz ist für uns ein sehr emotional belegter Begriff. Künstliche Intelligenz bezieht sich aber erst Mal nur auf die Möglichkeiten des maschinellen Lernens auf Basis mathematischer Berechnungen. Es geht also um quantifizierbare Formen der Intelligenz. Musische Intelligenz, sensomotorische Intelligenz oder emotionale Intelligenz sind unter dem Begriff „Künstliche Intelligenz“ gar nicht erfasst.

Was ist ein Algorithmus?

Und auch, wenn wir vom maschinellen Lernen sprechen, gibt es eigentlich ein Definitionsproblem. Denn Maschinen haben nicht Erkenntnisse, wie wir Menschen sie haben. Und sie kategorisieren anders. Die Basis für maschinelle Operationen sind Algorithmen. Stephanie Borgert erklärt das ganz gerne am Beispiel des Zähneputzens. Um das Ziel schöne, saubere Zähne zu erreichen, müssen verschiedene, aufeinander aufbauende Arbeitsschritte durchgeführt werden. Wir müssen die Zahnpastatube aufschrauben, eine bestimmte Menge Zahnpasta auf eine Zahnbürste aufbringen, dann den Mund öffnen, die Zahnbürste in den Mund führen, in einer bestimmten Art und Weise auf unseren Zähnen rumschrubben, fertig. Optional, aber für das Ergebnis nicht unbedingt zwingend, können wir die Zahnbürste befeuchten – bevor oder nachdem wir die Zahnpasta aufgetragen haben – und am Ende den Mund noch ausspülen. Das ist aber für das Ergebenis eben nicht zwingend erforderlich.

Wie gut ein Algorithmus am Ende ist oder wie zuverlässig mit dem programmierten Algorithmus ein Ziel erreicht wird, ist immer abhängig davon, wie gut und genau der Mensch die Arbeitsschritte definiert hat, die zum Erreichen des Ziels durchgeführt werden müssen. Das heißt: Der Algorithmus ist immer nur so gut, wie ein Mensch ihn programmiert hat.

„Der Algorithmus selbst, der kann nichts. Der ist nur ein Gerüst. Aus dem Ruhrgebiet, da wo ich herkomme, würde man sagen, der ist strunzdämlich.“

– Stephanie Borgert –

Inzwischen haben wir aber natürlich Algorithmen entwickelt, deren Komplexität weit über die des Zähneputzens hinaus geht. Wir entwickeln längst nicht mehr alles selber in einen Algorithmus hinein und haben Maschinen in die Lage versetzt, selber Muster und Kategorien zu finden. Aber ob die Ergebnisse am Ende brauchbar sind, darüber entscheiden immer noch wir als Menschen. Und das ist für Stephanie Borgert ein durchaus entscheidender Punkt. Denn selbst, wenn wir nicht mehr nachvollziehen können, wie Algorithmen zu ihren Ergebnissen kommen, am Ende entscheiden wir Menschen über deren Verwendung.

So hat zum Beispiel Amazon in den USA einen Entscheidungsalgorithmus eingesetzt, um aus der großen Menge an Bewerbungen die Kandidat:innen herauszufiltern, bei denen die Wahrscheinlichkeit am größten war, dass sie am Ende auch einen Job beim Unternehmen bekamen. Irgendwann stellte sich allerdings heraus: Die Künstliche Intelligenz, beziehungsweise die Algorithmen, die für diesen Entscheidungsprozess programmiert worden waren, berechneten, dass Frauen weniger wahrscheinlich eingestellt werden – und bewerteten die Bewerbungen von Frauen daher grundsätzlich schlechter. Bis dem Unternehmen das allerdings aufgefallen ist, hat es einige Zeit gedauert. Mit anderen Worten: Am Ende haben zwar Menschen darüber entschieden, wer eingestellt wird und wer nicht – aber die Entscheidungsbasis wurde von Algorithmen gebildet.

„Da steckt eigentlich die Problematik drin, dass wir dazu neigen, die Verantwortung abzugeben an eine Maschine, von der wir nicht nachvollziehen können, wie sie zu einer Berechnung kommt. Das können wir nämlich nicht mehr.“

– Stephanie Borgert –

Wir können also Maschinen dazu befähigen, aus großen Datenmengen Muster herauszufiltern und Kategorien zu bilden. Und das können sie inzwischen auch, wenn wir nicht mehr jeden Schritt selbst per Algorithmus definieren. Aber Maschinen sind eben Maschinen. Sie sind weder in der Lage, Kontext zu bilden, noch in der Lage, die Ergebnisse in irgendeiner Form einer ethischen oder moralischen Bewertung zu unterziehen. Denn die Maschine selbst hat ja nicht bemerkt, dass Frauen im Auswahlverfahren diskriminiert werden. Das wurde rückwirkend durch eine Bewertung von Menschen festgestellt, die dann auf die Suche nach den Ursachen gehen mussten. Echtes Lernen würde aber bedeuten, dass dem Prozess auch ein Erkenntnisgewinn folgt.

„Für mich ist Lernen ein Erkenntnisgewinn. Ich mache aus Daten Informationen, das passiert in meinem Kopf und ich verstehe Zusammenhänge, Welchselwirkungen, was auch immer. Das können Maschinen und Algorithmen schlichtweg nicht. Was sie aber hervorragend können, ist Massendaten verarbeiten.“

– Stephanie Borgert –

Die Frage ist also: Warum machen wir uns abhängig von Algorithmen, wenn das Ergebnis so wenig verlässlich ist? Wo tragen wir die Verantwortung zur Überprüfung der Ergebnisse? Und müssen wir vielleicht über eine Kennzeichnung nachdenken? Denn Algorithmen stecken auch hinter vielen anderen Entscheidungsprozessen, die wir jeden Tag treffen. Zum Beispiel bei der Auswahl der Artikel, die wir lesen. Oder hinter der Auswahl der Produkte, die wir angeboten bekommen, weil wir sie aller Wahrscheinlichkeit nach auch kaufen werden.

Algorithmen können schon heute auch selber Texte produzieren und verbreiten. So können zum Beispiel Wettervorhersagen oder Berichte über Erdbeben mit Hilfe solcher Systeme erstellt werden. Im Prinzip alles, was sich aufgrund einer bestimmten Datenlage formulieren lässt. Und es gibt auch schon Systeme, die solche Texte zu Audio verarbeiten können – zum Beispiel zu Radionachrichten. Die Stimmsynthese ist dabei inzwischen so weit fortgeschritten, dass sie nur noch sehr schwer von einer echten menschlichen Stimme zu unterscheiden ist. Muss hier der Einfluss von Algorithmen oder Künstlicher Intelligenz gekennzeichnet werden?

Bewertung von Menschen durch Algorithmen

Für Stephanie Borgert ist klar: Wir brauchen ganz dringend eine Diskussion über den Einsatz von Algorithmen. Denn wohin das führen kann, lässt sich aktuell in China beobachten, wo in einigen Provinzen das System des Social Scoring bereits getestet wird. Das heißt, Menschen werden im öffentlichen Raum beobachtet und ihr Verhalten hat Einfluss auf ihren sozialen Status. Geht zum Beispiel jemand bei Rot über eine Ampel, erkennt das System das automatisch, identifiziert die entsprechende Person via Gesichtserkennung und schickt einen Strafzettel. Zusätzlich wird das Gesicht dieser Person öffentlich auf einer Anzeigentafel gezeigt, mit vollem Namen und dazu das Vergehen. Der Strafzettel mindert zudem den Social Score der Person. Der Social Score ist zum Beispiel dafür verantwortlich, welche Privilegien einer Person in der Gesellschaft zugestanden werden.

Im Falle einer Chinesin hat ein solches System allerdings einen Fehler gemacht. Beziehungsweise: Das System hat genau das gemacht, was es sollte – nämlich eine Person identifiziet, deren Gesicht auf einem Fußgängerüberweg zu sehen war, während die Ampel rot zeigte. Das Problem: Das Gesicht der Frau war als Werbung auf einem Bus angebracht, der – völlig zurecht – über den Fußgängerüberweg fuhr. Der Fehler wurde nachträglich korrigiert, zeigt aber besonders deutlich: Da, wo auf der Basis von Algorithmen oder Künstlicher Intelligenz Menschen bewertet werden, sollten wir höllisch aufpassen. Denn KI kann solche Situationen weder erkennen, noch bewerten, noch sie in einen Zusammenhang setzen. Menschen können das schon.

„Wir können nicht die Verantwortung an die Algorithmen abgegeben. Wir können aber auch nicht von den Algorithmen verlangen, dass sie das perfektionieren, was auch bei uns nicht perfekt funktioniert.“

– Stephanie Borgert –

Was aber weder Menschen noch Maschinen können: Eine Welt da perfekt machen, wo der Zufall regiert. Und Leben heißt nunmal auch, dass wir nicht alles vorhersehen können. Das Dinge passieren, die nach mathematischen Berechnungen höchst unwahrscheinlich sind, die sich aber für Wahrscheinlichkeitsrechnung einfach nicht interessieren – und trotzdem existent sind. Wir brauchen also einen vernünftigen Umgang mit der Technologie – und einen Diskurs darüber, wie dieser vernünftige Umgang aussehen könnte. Wer bestimmt denn, was ethisch und moralisch vertretbar ist, wenn Algorithmen zum Einsatz kommen? Stephanie Borgert hat so ihre Bedenken, was zum Beispiel das Social Scoring in China angeht – die Menschen in den chinesischen Provinzen, in denen das System getestet wird, sehen das vielfach komplett anders.

Um diesen Diskurs aber möglichst breit führen zu können und möglichst viele Menschen daran zu beteiligen, muss das Wissen um Algorithmen und Künstliche Intelligenz erhöht werden. Denn auch, wenn wir den Einfluss weder direkt sehen noch anfassen können, es gibt ihn. Und betroffen sind auch die Menschen, die ihre digitalen Fußspuren nicht in sozialen Netzwerken lassen. Denn inzwischen werden überall Daten erhoben und gespeichert – und mit Hilfe von Algorithmen eben auch verknüpft und ausgewertet. Und was das im Ergebnis heißt, geht uns alle an.