Algorithmenethik Erlesenes #104

Können Datenschutz und Corona-Tracking zusammengedacht werden? Neben diesem Dauerthema kuratieren wir diese Woche auch Beiträge zu diskriminierenden Sprachsystemen und neuen Entwicklungen in Sachen diverse Datensätze. Dazu gibt es eine neue Publikation zum Praxistransfer von Ethikprinzipien!
Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖 Führende Spracherkennungssysteme verstehen schwarze US-Bürger:innen schlechter

(There Is a Racial Divide in Speech-Recognition Systems, Researchers Say), 23. März 2020, The New York Times

Frei verfügbare Verfahren zur Spracherkennung, die von Technologiekonzernen wie Amazon, Apple, Google, IBM oder Microsoft angeboten werden, verstehen Afroamerikaner:innen beim Sprechen deutlich schlechter als weiße US-Amerikaner:innen. Cade Metz, Technologiekorrespondent bei der New York Times, berichtet über eine aktuelle Studie von Forscher:innen der Stanford University, die entsprechende Diskrepanzen zutage gefördert hat. Während die untersuchten Systeme ungefähr jedes fünfte Wort von weißen Testpersonen nicht korrekt hören konnten, seien es bei schwarzen Proband:innen nahezu zwei von fünf Wörtern gewesen. Die Ursache hierfür liege aller Wahrscheinlichkeit nach – und wie so oft – im Mangel an Diversität im Datenmaterial, mit dem die Algorithmen trainiert wurden. In der Folge seien sie weitaus vertrauter mit der typischen Ausdrucks- und Sprechweise von weißen Personen als mit der von schwarzen US-Bürger:innen, erklärt Metz.


🔖 Zwei Experten im Streitgespräch: Uneinigkeit über die Entwicklung von KI

(A debate between AI experts shows a battle over the technology’s future), 27. März 2020, MIT Technology Review

Das Forschungsfeld Künstliche Intelligenz (KI) befindet sich in einem stetigen Kampf zwischen verschiedenen Sichtweisen darüber, wie es für diese Disziplin weitergehen sollte. So beschreibt Karen Hao den von ihr in diesem Beitrag wiedergegebenen Schlagabtausch zwischen zwei Experten mit stark divergierenden Positionen: Der US-amerikanische Professor Gary Marcus spricht sich gegen die ständige Fokussierung auf Deep Learning aus – Ansätze, mit denen Algorithmen sich komplett eigenständig beibringen, Aufgaben zu lösen. Marcus hält es für sinnvoll, KI mit den Grundkonzepten und -symbolen vertraut zu machen, die uns Menschen helfen, die Welt zu erklären und zu verstehen. Den Computerwissenschaftler Danny Lange überzeugt diese Perspektive nicht. Versuche, KI an Denkweisen und -konzepte des menschlichen Gehirns anzulehnen, seien, wie wenn man im Zeitalter der Industrialisierung statt des Verbrennungsmotors mechanische Pferde entwickelt hätte.


🔖 KI-Bilddatenbank ImageNet soll vorurteilsfreier werden

(Researchers devise approach to reduce biases in computer vision data sets), 12. Februar 2020, Princeton University

Die beliebte, von vielen KI-Anwendungen genutzte freie Bilddatenbank ImageNet hat dokumentierte Probleme mit im Datensatz enthaltenen Vorurteilen und Beleidigungen (siehe Erlesenes #83). Seit einiger Zeit arbeiten die Macher:innen, ein Team von Computerwissenschaftler:innen der Universitäten von Princeton und Stanford, an Verbesserungen, berichtet die Wissenschaftsautorin Molly Sharlach auf der Website der Princeton University. Zum einen gehe es darum, Bildern zugeordnete Etiketten zu entfernen, die anstößig sind oder sich schlecht visuell repräsentieren lassen. Zum anderen werde ein Mechanismus entwickelt, der es ermögliche, zu einem bestimmten Etikett – etwa „Programmierer” – einen Datensatz mit Personenbildern abzurufen, die hinsichtlich Geschlecht, Hautfarbe und Alter ausgeglichener sind, als dies sonst der Fall wäre. Nutzer:innen sollen den Grad der gewünschten Vielfalt selbst bestimmt können. Die Änderungen werden in Kürze zusammen mit der Bitte zur Evaluation durch Expert:innen eingeführt, so Sharlach


🔖 Corona-Tracking & Datenschutz: Kein notwendiger Widerspruch

29. März 2020, Netzpolitik.org

Zuletzt wurde die Möglichkeit der Abfrage von Funkzellen-Daten diskutiert, um mit diesen die Ausbreitung des neuartigen Coronavirus zu bremsen. Doch es gebe einen anderen Ansatz, der datenschutzrechtlich weniger invasiv und gleichzeitig vermutlich epidemiologisch effektiver sei, schreiben die Datenschutzaktivisten Johannes Abeler, Matthias Bäcker und Ulf Buermeyer. Die von ihnen erörterte, auf einer freiwillig zu installierenden App basierende Lösung komme in ähnlicher Form bereits in Singapur zum Einsatz. Das Verfahren ermögliche eine Kontaktverfolgung sowie ein Warnsystem, ohne auf die Sammlung einer riesigen Menge an sensiblen Daten und unnötige Grundrechtseingriffe angewiesen zu sein. Nur ein System, dem die Menschen vertrauen können, weil es sie nicht ausspäht und sie keinen Repressalien unterwirft, berge das Potenzial für eine wirklich breite Unterstützung in der Bevölkerung, so die Autoren.


🔖 EU-Gesetze erschweren eine Automatisierung von Kriterien zur Antidiskriminierung

(Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-Discrimination Law and AI), 27. März 2020, SSRN

Die aktuellen EU-Rechtspraktiken zum Aufdecken von Diskriminierung seien schwer bis gar nicht mit Bestrebungen zum Erreichen von fairen Algorithmen in Einklang zu bringen. Dies stellt ein Forscher:innenteam um Sandra Wachter vom Oxford Internet Institute in einer neuen Studie fest. Dem EU-Recht fehle ein statisches, homogenes Rahmenwerk, anhand dessen eine Automatisierung des Prüfens auf diskriminierende Entscheidungen möglich wäre. Die Anforderungen des EU-Rechts seien zu kontextuell, bauten zu stark auf Intuition und ließen zu viel Spielraum für juristische Interpretationen, um sich automatisieren zu lassen. Im Gegensatz zu traditionellen Formen von Benachteiligung sei algorithmische Diskriminierung abstrakter, subtiler, und schwerer zu nachzuweisen. In ihrem Papier präsentieren die Wissenschaftler:innen einen Vorschlag für ein standardisiertes statistisches Kriterium, um Aspekte von Fairness und Antidiskriminierung trotz des beschriebenen Konflikts so weit wie möglich in algorithmische Prozesse einbetten zu können.


In eigener Sache: From principles to practice: Wie wir KI-Ethik messbar machen können

Die Diskussion über die gesellschaftlichen Auswirkungen von Algorithmen hat an Fahrt angenommen. Neben wurde eine Vielzahl an Leitlinien für die ethische Gestaltung sogenannter „Künstlicher Intelligenz“ (KI) veröffentlicht. Offen bleibt aktuell jedoch die Frage, wie die darin enthaltenen Prinzipien konkret umgesetzt werden sollen. In Kooperation mit der gemeinnützigen Normierungsorganisation VDE schließen wir diese Lücke und erklären in einem neuen Arbeitspapier, wie KI-Ethikprinzipien in die Praxis überführt werden können.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.


Kommentar verfassen