Algorithmenethik Erlesenes #8

Willkommen zur achten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖KI-Angriff versteckt Sprachbefehle in klassischer Musik (PDF)

(Audio Adversarial Examples: Targeted Attacks on Speech-to-Text), 5. Januar 2018, University of California, Berkeley

Auch Algorithmen zur Spracherkennung sind anfällig für sogenannte Adversarial Attacks. Dies zeigen die zwei Informatiker David Wagner und Nicholas Carlini von der Universität California in Berkeley. Mit ihrem in diesem Papier beschriebenen Ansatz können sie nahezu beliebige „versteckte“ Botschaften in Audiospuren einbauen. Sprache-zu-Text-Systeme erkennen diese Botschaften, während sie für menschliche Ohren nur schwer oder gar nicht wahrzunehmen sind. Angesichts der weiter steigenden Verbreitung von sprachgesteuerten persönlichen Smart-Home-Assistenten ist diese Angriffsmethode sehr ernst zu nehmen. Wagner und Carlini rufen andere Wissenschaftler dazu auf, ebenfalls zu diesem Thema zu forschen, und haben ihren Code und Datensätze zur freien Verfügung bereitgestellt. Bei Golem.de gibt es eine kurze deutschsprachige Zusammenfassung inklusive einer Videodemonstration, die das Verfahren in einem frühzeitigen Stadium zeigt.


🔖Analyse der sexuellen Neigung anhand von Fotos: Wenn der Algorithmus doch keine verborgenen Muster erkennt

(Do algorithms reveal sexual orientation or just expose our stereotypes?), 11. Januar 2018, Medium

Kann ein Algorithmus anhand von Gesichtsmerkmalen die sexuelle Neigung einer Person bestimmen? Die im Herbst 2017 veröffentlichten Resultate einer kontroversen Studie zur algorithmischen Analyse von Fotos auf einer Dating Website suggerierten dies zumindest. Doch dieser Bericht der Google-KI-Ingenieure Margaret Mitchell, Blaise Agüera y Arcas und des Psychologie Professors Alex Todorov der Princeton University zeigt: Die Software hat nicht etwa physiognomische Muster in den untersuchten Fotos erkannt, sondern kulturell bedingte modische Unterschiede wie Makeup-Wahl, Kopfbedeckung, Gesichtsbehaarung, das Tragen einer Brille oder die Perspektive, aus der das Foto geschossen wurde. Um anhand stereotypischer äußerer Merkmale die sexuelle Neigung einer Person zu erraten, benötige es keine KI, so die Wissenschaftler. Das gelte natürlich erst recht, wenn die Datenbasis aus explizit zur Selbstdarstellung für Datingzwecke gewählten Fotos besteht. Es zeigt sich wieder einmal, dass selbstlernende Algorithmen nicht per se übermenschliche Fähigkeiten haben. Manchmal “sehen” sie auch schlicht nur genau das, was der Mensch auch bewusst wahrnimmt.


🔖Wie Google Diskriminierung durch seinen Bilderkennungsalgorithmus verhindert

(When It Comes to Gorillas, Google Photos Remains Blind), 11. Januar 2018, Wired

Ein Bilderkennungsalgorithmus versieht ein Foto von schwarzen Personen mit dem Schlagwort “Gorillas”. Dieser Skandal bei Googles Fotodienst aus dem Jahr 2015 wird bis heute oft als Beispiel für die diskriminierenden Folgen unausgereifter KI-Software zitiert. Google versprach damals eine dauerhafte Lösung des Problems. Wie Wired-Journalist Tom Simonite in diesem Text erläutert, greift der Konzern allerdings bislang auf den denkbar einfachsten Workaround zurück: Beim Dienst Google Fotos ist die automatische Identifizierung von Affen verschiedener Arten schlicht komplett deaktiviert. Auch mehr als zwei Jahre nach dem Vorfall scheinen die Ingenieurinnen und Ingenieure des Technologiegiganten keine andere Möglichkeit gefunden zu haben, das Problem zu lösen.


🔖Algorithmenbasierte Sterbeprognosen – Wie ein Arzt  darüber denkt

(This Cat Sensed Death. What if Computers Could, Too?), 3. Januar 2018, New York Times

Der Tod sei die ultimative Black Box, konstatiert der Onkologe und Buchautor Siddhartha Mukherjee in diesem Essay. Seit jeher scheitern Ärzte daran, systematisch treffsichere Prognosen zur Überlebenswahrscheinlichkeit schwer kranker Patienten zu machen. Akkurate Vorhersagen sind aber im Interesse von Patienten, Ärzten sowie dem gesamten Gesundheitssystem. Ob künstliche Intelligenz hier helfen kann? Ein für die Sterbeprognose entwickelter Algorithmus liefert laut Mukherjee zwar überraschend genaue Resultate – arbeitet allerdings auch nicht fehlerfrei. Zudem kann er nicht artikulieren, wie die Prognosen zustande kommen, was neue Probleme mit sich bringt. Mukherjee gesteht sein Unbehagen bei dem Gedanken an eine Software, die Hinweise auf den bevorstehenden Tod erkennen könnte, und hinterfragt zugleich ebendiese Aversion gegen maschinelle Entscheidungen.


🔖Marxismus und Digitalisierung: Die automatische Revolution

30. Dezember 2017, taz

Bringen Maschinen und Algorithmen mehr Freiheit oder stellen sie eine neue Form der Unterdrückung dar? Diese Sammelrezension stellt zum anstehenden 100. Geburtstag von Karl Marx drei Bücher vor, die untersuchen, was Marx‘ Analysen technischer Entwicklung über die Gegenwart sagen. Wesentliche Erkenntnis: Technischer Fortschritt bringt nicht zwingend sozialen Fortschritt – er kann sogar ins Gegenteil umschlagen. Ob technische Entwicklung die Lebensbedingungen aller Menschen verbessert, hängt auch von der gesellschaftlichen Einbettung ab.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

 



Kommentare

  1. / von Algorithmenethik | Algorithmenethik Erlesenes#20 - Algorithmenethik

    […] dass der Algorithmus die sexuelle Orientierung anhand der Gesichtsformen erkennen konnte (siehe Algorithmenethik Erlesenes #8). Um Fehlinterpretationen und die Verwechslung von Korrelation und Kausalität zu vermeiden, […]

  2. / von Algorithmenethik | Algorithmenethik Erlesenes #30 - Algorithmenethik

    […] in Bezug auf die KI, die angeblich sexuellen Neigung anhand von Fotos erkennen kann. Siehe dazu Algorithmenethik Erlesenes #8), stellt er einen wichtigen, zum Nachdenken anregenden Diskussionsbeitrag […]

Kommentar verfassen