Viele Menschen glauben, Algorithmen seien allein wegen ihrer mathematischen Grundlagen neutral.
Dieser verbreitete Irrglaube macht es möglich, dass Vorurteile ungeprüft kursieren und Unternehmen und Organisationen sich ihrer Verantwortung entziehen, indem sie Algorithmen als Alibi nutzen.

Das ist Mathwashing:
Wenn der Deckmantel vermeintlich wertfreier Mathematik Interessen, Macht und Vorurteile verbirgt.
Und so funktioniert es:
Es gibt zwei Arten, wie Algorithmen zu Alibis werden:


ABSICHTLICH
Wenn Menschen Entscheidungen nicht hinterfragen, die vorgeblich ein „wertfreier“ Algorithmus getroffen hat. Dieses Vertrauen kann missbraucht werden.


Facebook: "Wir sind nur eine Plattform".
Diese zwei Tatsachen sollten Sie sich bewusst machen:
1.
MENSCHEN ENTWICKELN ALGORITHMISCHE SYSTEME.


Diese Menschen treffen wichtige Entscheidungen.
Zum Beispiel:
Welche Daten werden genutzt?
Wie werden die Daten gewichtet?
Wie werden gesellschaftliche Konstrukte messbar gemacht?
Welchem Zweck dient das System?
Welche Folgen haben die Ergebnisse für Menschen?



2.
DATEN SIND NICHT VON SICH AUS OBJEKTIV


Algorithmen verarbeiten Daten, die wir ihnen zur Verfügung stellen. Wer einmal Datenmaterial erhoben oder genutzt hat, weiß: Daten sind politisch, chaotisch, häufig unvollständig, manchmal gefälscht, oft einseitig beeinflusst. Sie sind voll schwer verständlicher, komplexer Bedeutungen.
Und selbst wenn Sie über seltene „gute“ und „saubere“ Daten verfügen, spiegeln sich in ihnen gesellschaftliche Vorurteile wider:
NEUE TECHNOLOGIEN WIE MASCHINELLES LERNEN FÜHREN DAZU,
DASS DER EINFLUSS VON ALGORITHMEN PROBLEMATISCHER WIRD.
Algorithmen lernen selbständig, Kategorien zu bilden und anzuwenden, indem sie große Mengen von Beispieldaten auswerten.
Diese Daten spiegeln in der Regel vorhandene gesellschaftliche Ungleichheiten wider. Zum Beispiel die Tatsache, dass Frauen weniger verdienen als Männer. Leichtfertig genutzt, können solche Daten bestehende Ungleichheit zur Norm erheben.
Algorithmen greifen vorhandene Ungleichheit auf und können sie vergrößern.
Algorithmen können funktionieren wie alte Seilschaften: Bestehende Ungleichheiten sind Teil ihrer Datenbasis und gleichzeitig Ergebnis ihrer Entscheidungen. Solche Feedbackschleifen verfestigen Ungleichheit.


ABSICHTLICH
Selbst die Entwicklerinnen können nicht genau darlegen, wie die selbstlernenden Teile ihrer algorithmischen Systeme abschließende Entscheidungen treffen. Dies eröffnet eine raffinierte Möglichkeit, sich aus der Verantwortung zu stehlen. So könnte zum Beispiel jemand ein System bewusst mit einseitigen Beispieldaten füttern, um verzerrte Ergebnisse zu erzielen.
Durch Algorithmen können sich Rechenschaftspflicht und Verantwortlichkeit verflüchtigen.
„Der Algorithmus ist schuld.“
Zusammengefasst bedeutet dies:


Wir können und wir müssen uns diesen Herausforderungen stellen:
1. TRANSPARENZ UND ERKLÄRBARKEIT BEI ALGORITHMEN EINFORDERN.
Leisten algorithmische Systeme, was sie laut ihren Entwicklern erreichen sollen? Es muss nachvollziehbar sein, wie und warum über einen Menschen eine bestimmte Entscheidung getroffen wurde.
Wenn Sie algorithmische Systeme einsetzen, lernen Sie deren Begrenzungen zu verstehen. Beauftragen sie einen Ethikexperten mit einer Prüfung der Algorithmen.


2. ALGORITHMISCHE SYSTEME AN GRUNDRECHTEN UND GESETZEN MESSEN.
Algorithmen sollten nicht einfach als eine Art Werkzeug verstanden werden. Denn oft enthalten sie bestimmte soziale Konzepte und Normen.
Verlangen Sie Auskunft darüber, wie definiert wurde, was einem bestimmten System als "gut" gilt. In einer Demokratie bestimmen wir gemeinsam über solche Fragen. Ihre Stimme sollte dabei Gewicht haben.
Dies gilt besonders in Bereichen wie dem predictive policing, bei dem aufgrund von Falldaten die Wahrscheinlichkeit künftiger Straftaten berechnet wird, und sogenannten Rückfallprognosen für Straftäter. Algorithmen werden durch diese Verfahren zu einem Element des Rechtssystems. Solche Prognosen lassen sich nur schwer überprüfen.


3. KRITISCH DENKEN
Wenn Sie die Begrenzungen von Algorithmen verstehen, werden Sie eher in der Lage sein, sich ein Urteil über deren Urteile zu bilden.
Daten und Algorithmen vereinfachen komplexe Realität und zeichnen ein handhabbares Bild der Welt. Nur die Bereiche und Aspekte der Welt, die sich leicht messen lassen, können in diese Berechnungen eingehen.
Es liegt in unserer individuellen Verantwortung, der „Religion des Algorithmus“ nicht anheimzufallen und zu begreifen, dass Menschen und Situationen mehr Facetten haben als uns vereinfachte, reduktionistische Vorstellungen glauben machen wollen.
Widerstehen Sie der Versuchung des Algorithmus. Sorgen Sie dafür, dass Entscheidungen stets von Menschen überprüft werden können.

