Algorithmenethik Erlesenes #13

Willkommen zur dreizehnten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖Bestärkendes Lernen funktioniert noch nicht

(Deep Reinforcement Learning Doesn’t Work Yet), 14. Februar 2018, alexirpan.com

Bestärkendes Lernen mit Hilfe neuronaler Netze (englisch “deep reinforcement learning”) ist eine beliebte Methode des maschinellen Lernens: Google hat mit solchen Verfahren den Stromverbrauch in Rechenzentren gesenkt oder AlphaGo das Go-Spielen antrainiert. Doch so gut die Methode in manchen Fällen funktioniert – in vielen versagt sie spektakulär. Und das viel zu oft, um tatsächlich zuverlässig einsetzbar zu sein. So lautet die ernüchternde Analyse von Alexander Irpan, einem Softwareentwickler aus Googles KI-Sparte. In seinem langen und teilweise recht technischen Essay erörtert der KI-Spezialist die Schwächen, die derzeit dem produktiven Arbeiten mit Algorithmen für bestärkendes Lernen im Weg stehen. Er nennt unter anderem den erheblichen Bedarf an Beispieldaten, den hohen Zeitaufwand im Vergleich zu bereichsspezifischen Algorithmen sowie Instabilität im Prozess. Trotz der kritischen Darlegung klingt Irpan aber nicht, als zweifle er daran, dass sich die hohen Erwartungen in bestärkendes Lernen eines Tages erfüllen werden. War lernen wir daraus? Es gibt nicht DIE künstliche Intelligenz. Sondern viele Verfahren, die manchmal gewünschte Ergebnisse bringen und oft nicht. Beurteilen und begreifen müssen das ihre menschlichen Schöpfer.


🔖Die Diversitäts-Krise der künstlichen Intelligenz

(“We’re in a diversity crisis”: cofounder of Black in AI on what’s poisoning algorithms in our lives), 14. Februar 2018, MIT Technology Review

Das Berufsfeld der künstlichen Intelligenz (KI) leidet unter einem massiven Mangel an Diversität. Diesen zu beheben, sei eine extrem dringende Aufgabe. Das konstatiert Timnit Gebru, Microsoft-Forscherin mit Schwerpunkt KI-Fairness, -Transparenz und -Ethik, in diesem Interview. Sie beschreibt die Folgen, die sich aus einer mangelnden ethnischen Vielfalt des Personals ergeben und die letztlich zu voreingenommenen und diskriminierenden Algorithmen führen. Wenn Menschen aus den betroffenen Gruppen nicht an der KI-Entwicklung beteiligt sind, dann werden die Probleme, mit denen sie im Alltag konfrontiert werden, auch nicht berücksichtigt, betont Gebru. Anzumerken ist an dieser Stelle, dass Diversität einen Wert an sich darstellt – völlig unabhängig von der Auswirkung auf die Leistung von algorithmischen Entscheidungssystemen (ADM-Systemen). Und für sich genommen garantiert die Vielfalt des Entwicklerteams noch keinen guten algorithmischen Output. Sie kann aber dazu beitragen, benachteiligende Resultate zu verhindern.


🔖Das Risiko, sein eigenes Risiko zu kennen

(The Risks of Knowing Your Risk), 14. Februar 2018, medium.com

Eine mögliche Folge des breiten Einsatzes von Algorithmen zur Analyse großer Datenmengen ist die breite Personalisierung von Diagnosen und Dienstleistungen. Gemeinhin wird Personalisierung als Chance verstanden, da sie Individuen Zugang zu genau auf sie zugeschnittenen Produkten und Services ermöglicht. Die Wissenschaftlerin und Psychologin Mikaela Pitcan diskutiert hier am Beispiel von in den USA seit 2017 frei verkäuflichen DNA-Analysen eine potenzielle Schattenseite der Personalisierung: Wie gehen Personen damit um, wenn ihnen ein Gentest ein erhöhtes Risiko prognostiziert, eine bestimmte Krankheit zu erleiden? Bisherige Erkenntnisse zeigen, dass der Umgang mit der ungeschönten Wahrheit nicht für jede(n) einfach ist – erst recht, wenn Personen bei womöglich daraus folgenden, schwerwiegenden Entscheidungen nicht professionell betreut werden. In ihrem Text präsentiert Pitcan auch verschiedene wissenschaftliche Ergebnisse rund um die Frage, wie die Übermittlung von Informationen, die für Menschen lebensverändernde Auswirkungen haben können, idealerweise ablaufen sollte.


🔖Wie Unis der nächsten Silicon-Valley-Generation ein ethisches Gewissen antrainieren wollen

(Tech’s Ethical ‘Dark Side’: Harvard, Stanford and Others Want to Address It), 12. Februar 2018, New York Times

„Move fast and break things“, “Build it first and ask for forgiveness later”- Das berühmte Motto, das die Vorgehensweise vieler Silicon-Valley-Firmen bei der Entwicklung und Lancierung neuer technologischer Lösungen charakterisiert, geriet zuletzt in Verruf. Nun wollen einige der für die Branche wichtigsten Spitzenuniversitäten mit neuen Initiativen und Kursen der nächsten Generation an Gründern und Softwarespezialisten ein Fundament an ethischen Grundlagen vermitteln. Über derartige Vorstöße der Harvard University, des Massachusetts Institute of Technology (MIT) sowie der Stanford University berichtet Natasha Singer, Technologiereporterin bei der New York Times. Ziel sei es, den zukünftigen Protagonisten der Branche anzutrainieren, stärker als bislang üblich über die Konsequenzen von weitreichenden Entwicklungen etwa in den Bereichen autonome Waffen oder selbstfahrende Autos nachzudenken – noch bevor die Produkte auf den Markt kommen.


🔖Die Tyrannei der Bequemlichkeit

(The Tyranny of Convenience), 16. Februar, New York Times

Das Streben nach Komfort und Bequemlichkeit ist vielleicht die Kraft, die momentan das Leben von Individuen sowie die Volkswirtschaft am weitreichendsten formt. Diese These vertritt der Jurist Tim Wu in diesem Meinungsbeitrag für die New York Times. Er thematisiert unter anderem, dass Menschen heutzutage viele Beschlüsse primär vom Kriterium der Bequemlichkeit abhängig machen – was besonders die Technologiefirmen für sich zu nutzen wissen. Je einfacher sich beispielsweise Amazon verwenden lässt, desto mächtiger wird das Unternehmen. Wus Beitrag stimmt nachdenklich: Es ist ja der Wunsch nach möglichst komfortablen Lösungen, der viele Konsumenten dazu bringt, algorithmisch ausgewählte und personalisierte Angebote aller Art zu nutzen. Einen Teil ihrer Entscheidungsautonomie geben sie für diesen Luxus bereitwillig ab.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen