Wenn Algorithmen irren, sind Menschen verantwortlich

Menschen entscheiden nicht per se fairer als Maschinen. Deshalb schadet das Trugbild vom Gegensatz Mensch – Maschine der Debatte über algorithmisch Entscheidungssysteme. Es verdeckt die eigentlichen Herausforderungen. Zum Beispiel: Wie versichern wir uns der Angemessenheit der in den Systemen implementierten Ziele, bevor sie im Einsatz sind? 

Der Computer sagt nein! Das ist die Pointe vieler Sketche der britischen Show „Little Britain“. Ihre Dramaturgie ist immer gleich: Ein Kunde wendet sich mit einem Wunsch an Sachbearbeiterin Carol. Ein Konto eröffnen, einen Arzttermin verabreden, eine Reise buchen. Carol mustert die Bittsteller jedes Mal sichtlich verachtungsvoll. Sie tippt irgendwas in den Computer und antwortet mit dem immer gleichen Satz: „Computer says no.“ Hier ist für den Zuschauer offenkundig: Es liegt nicht am Computer, sondern an Carols schlechter Laune.

Was bei „Little Britain“ Carols Computer ist, sind in der aktuellen öffentlichen Debatte die Algorithmen. Die Algorithmen bestimmen unser Leben. Die Algorithmen sind die neue Weltmacht. Was die Algorithmen sagen, ist Gesetz! So klingt es oft in der Diskussion über Computerprogramme, die Menschen bewerten oder solche Entscheidungen vorbereiten. Das führt leicht zu einem gefährlichen Kurzschluss: Der Algorithmus ist schuld. Doch das stimmt nicht. Denn Algorithmen sind Menschenwerk.

Staaten und Unternehmen nutzen heute in vielen Lebensbereichen algorithmische Systeme, um Menschen zu beurteilen: Bei der Vorauswahl für Bewerbungsgespräche, bei der Einsatzplanung von Polizeistreifen, beim Kampf gegen Versicherungsbetrug oder sogar bei der Entscheidung über die vorzeitige Haftentlassung von Straftätern. Leitbild dieser Entwicklungen muss unbedingt das gesellschaftlich Sinnvolle sein, nicht das technisch Mögliche! Dabei schadet das Trugbild vom Gegensatz Mensch – Maschine. Es verdeckt die eigentlichen Herausforderungen.

Menschen entscheiden nicht per se fairer als Maschinen. Wer zum Bewerbungsgespräch eingeladen wird, bestimmen in Deutschland immer noch mehrheitlich Menschen. Wir wissen aus Studien: In der Summe entscheiden sie unfair. Um eine Einladung zu erhalten, muss ein Kandidat mit einem deutsch klingenden Namen durchschnittlich fünf Bewerbungen schreiben. Ein Bewerber mit gleicher Qualifikation und türkisch klingendem Namen hingegen sieben. Das ist nur ein Beispiel, wo gut gestaltete Technik unsere Gesellschaft gerechter machen könnte.

Ob ein algorithmisches System gesellschaftlichen Nutzen stiftet, hängt erstens von seinen Zielen ab. Ein Beispiel: In den USA berechnen manche Autoversicherungen ihre Prämien basierend auf dem Kreditscoring der Kunden. Wenn jemand Unfälle verschuldet hat, aber immer pünktlich seine Rechnungen begleicht, zahlt er weniger als Einkommensschwache mit perfektem Fahrverhalten. Bonität genießt Priorität. Das haben Menschen festgelegt.

Zweitens kommt es auf die Umsetzung an. Was gut gemeint ist, kann auch schlecht gemacht werden. In Chicago sollte zum Beispiel eine Software der Polizei helfen, Teilnehmer für Präventionsprogramme zu identifizieren. Und zwar Teilnehmer, die ein besonders hohes Risiko haben, Opfer von Gang-Schießereien zu werden. In der Praxis wird die Software aber für polizeiliche Ermittlungen genutzt. Dafür wurde sie nicht entwickelt und auch nicht getestet.

Gefährlich wird es vor allem dann, wenn Algorithmen unreflektiert entwickelt oder umgesetzt werden. Deshalb brauchen wir eine öffentliche Debatte. Nicht über Trugbilder, sondern über konkrete Herausforderungen.

  • Wie versichern wir uns der Angemessenheit der in den Systemen implementierten Ziele, bevor sie im Einsatz sind? Antworten könnten eine Professionsethik, Ethikkommissionen und unabhängige Wächter sein.
  • Wie überprüfen wir, ob algorithmische Systeme die definierten Ziele tatsächlich erreichen? Hier könnten in anderen Bereichen erprobte Institutionen wie die Finanzaufsicht, die Lebensmittelkontrolle oder der TÜV Inspiration sein.
  • Wie sichern wir die Vielfalt von Verfahren, Betreibern und Zielen, um Innovation und Gemeinwohl zu stärken? Hier ist der Staat auch als progressiver Gestalter gefragt. Es braucht einen wettbewerblichen Rahmen, der die Vielfalt algorithmischer Systeme sichert. Helfen könnte Förderung gemeinwohlorientierter Software und Forschung.

Wie entwickeln wir eine Ethik für Algorithmen? Wie stellen wir algorithmische Systeme in den Dienst der Gesellschaft? Darüber lohnt es sich zu streiten. Nicht über Trugbilder wie per se böse Maschinen und gute Menschen.


Dieser Beitrag ist zuerst im Deutschlandradio Kultur gesendet und auf der Website des Senders veröffentlicht worden.


Über neue Beiträge in diesem Blog können Sie sich per RSS-Feed oder per E-Mail-Newsletter benachrichtigen lassen. 



Kommentare

  1. / von Thomas Ebner

    Ich habe Zweifel, ob die riesige Anzahl von Informatikern, die anscheinend jetzt gebraucht werden, unsere Zukunft zu programmieren, intellektuell in der Lage sind, Gut von Schlecht zu trennen. Ich sehe öfters mein Vorurteil bestätigt, dass es sich um eine Personengruppe handelt, die thematisch weit weg von gesellschaftlichen Themen lebt und versteckt in Backoffices arbeitend, selten die Sonne auf- oder untergehen sieht (die reale, nicht die virtuelle).

  2. / von Michael Hübler

    Das sehe ich ähnlich wie mein Vorkommentator: Wie sichern wir ab, dass diejenigen, die die Algorithmen später nutzen, auch bei deren Entwicklung an Bord sind? Es gibt bspw. Ceran-Kochplatten, die zum längeren Kochen ungeeignet sind, weil die Bedienelemente in die Kochplatte integriert sind und deshalb heiß werden. Eine Familie, erfahrene Köchin, etc. in die Entwicklung zu integrieren, würde viel Ärger ersparen. Gleiches gilt für Algorithmen: Als Organisationsberater kenne ich die Ängste v.a. älterer Mitarbeiter. Werden diese jedoch als Nutzer bei der Entwicklung der Algorithmen mit ins Boot geholt, wird folglich deren jahrelange Erfahrung und Intuition algorithmisiert, verringern sich mit Sicherheit auch deren Ängste vor dem „Digitalisierungs-Monster“.

    1. / von klischka
      zu

      Das ist aus meiner Sicht ein ganz wichtiger Punkt. Bei bestimmen Einsatzfeldern müssen die Anwender und die später von den Systemen Betroffenen (nicht immer deckungsgleich) bei der Gestaltung eingebunden werden. Eine Analogie kann da z.B. der Städtebau sein (Beteiligungsverfahren, Folgenabschätzung usw.)

Kommentar verfassen