Algorithmenethik Erlesenes #10

Willkommen zur zehnten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖Das Spannungsfeld fairer Algorithmen

(Algorithmic decision making and the cost of fairness), 28. Januar 2018, arxiv.org

Die Frage, wie man faire Algorithmen gestaltet, gehört zu den besonders intensiv diskutierten Aspekten algorithmischer Entscheidungsprozesse. In diesem Bericht beleuchten Wissenschaftler der Stanford University, University of California Berkeley und der University of Chicago das Spannungsfeld, in dem die Entwicklung fairer Algorithmen häufig erfolgt. Am Beispiel von Software zur Bestimmung der Rückfallwahrscheinlichkeit von Straftätern zeigen sie auf, wie zwischen dem öffentlichen Interesse an der Minimierung von Kriminalität und dem Streben nach Fairness ein Konflikt entstehen kann. Denn ein Algorithmus, der öffentliche Sicherheit maximieren soll, verletze notgedrungen Fairnessprinzipien, argumentieren die Wissenschaftler. Ein allein auf Fairness optimierter Algorithmus wiederum werde dem Ziel nicht gerecht, größtmögliche öffentliche Sicherheit zu erreichen. Der Bericht mag nicht ganz neu sein, zeigt jedoch sehr exemplarisch die Bedeutung einer breiten gesellschaftlichen Diskussion über die Ziele und möglichen Trade-Offs algorithmischer Entscheidungsfindung auf und ist somit quasi zeitlos relevant.


🔖Wieso Überwachung durch den Einsatz von KI noch bedrohlicher wird

(Artificial intelligence is going to supercharge surveillance), 23. Januar 2018, The Verge

Ein häufig angeführtes Argument gegen systematische Massenüberwachung war bislang, dass sich die anfallende enorme Datenmenge gar nicht effektiv auswerten lassen. Doch mit den Fortschritten im Bereich der künstlichen Intelligenz trifft dies nicht länger zu, wie James Vincent, Journalist beim Onlinemagazin The Verge, in diesem Text erläutert: Aufgrund neuer, leistungsfähiger Algorithmen benötigen Überwachungskameras demnächst keine menschlichen Anwender mehr, um gezielt Personen, Verhaltensweisen oder andere Muster zu identifizieren und auszuwerten. All das kann bald vollautomatisch geschehen. Vincent rechnet mit einem sich selbst verstärkenden Prozess, bei dem bessere Software zu noch mehr Überwachung führt, was es wiederum ermöglicht, die Algorithmen zu optimieren. Das Missbrauchspotenzial eines derartig hochgerüsteten Überwachungssystems ist riesig. Viele der Herausforderungen und noch immer ungelösten Fragestellungen rund um algorithmenbasierte Entscheidungen, die wir an dieser Stelle regelmäßig thematisieren, tangieren dann im Prinzip jeden Menschen, Tag für Tag.


🔖Einblick in die Arbeit einer Facebook-Moderatorin

(Drei Monate Hölle), 05. Januar 2018, SZ Magazin

In sozialen Netzwerken wie Facebook entscheiden algorithmische Prozesse darüber, welche Inhalte priorisiert werden und im Newsfeed nach oben rutschen. Nicht nur „soziale“ Inhalte, sondern auch Hass und Aufrufe zur Gewalt werden so verbreitet. Bei vielen schwierigen Fragen sind aber Menschen gefragt: in den Kontext einordnen, Ironie erkennen und einschätzen, wo die Meinungsfreiheit enden soll – Algorithmen sind für diese Aufgaben nicht gut genug. Facebook lässt daher menschliche Mitarbeiter, sogenannte „Content Moderatoren“, problematische Inhalte löschen. Im Dezember 2016 hatte die Süddeutsche Zeitung mit Mitarbeitern des von Facebook beauftragten Dienstleisters Arvato (siehe Transparenzhinweis unter der Empfehlung) über die Arbeitsbedingungen und geheimen Löschregeln gesprochen. In einem nun vom SZ Magazin veröffentlichten, sehr zum Nachdenken anregenden Brief schildert eine ehemalige Mitarbeiterin ihre persönlichen Erfahrungen. Burcu Gültekin Punsmann berichtet von der großen Belastung, Tag für Tag mit den widrigsten Seiten des menschlichen Verhaltens konfrontiert zu werden. Die Arbeit, die “Content Moderatoren” leisten, ist ein essenzieller Dienst für die Gesellschaft. Dennoch bleiben sie quasi unbemerkt, ohne für ihre Arbeit Wertschätzung oder gesellschaftliche Anerkennung zu erhalten. Die Facebook-Anwender sehen nur Software, nicht, was Menschen leisten. Alleine deshalb ist dieser Text lesenswert. Transparenzhinweis: Arvato gehört zum Konzernverbund der Bertelsmann SE & Co. KGaA, zu deren Gesellschaftern die Bertelsmann Stiftung zählt.


🔖Ist Social Media gut oder schlecht für die Demokratie?

(Guest Post: Is Social Media Good or Bad for Democracy?), 22. Januar 2018, newsroom.fb.com

Soziale Netzwerke haben viele positive Seiten, aber sie können auch zu einer Bedrohung für den öffentlichen Diskurs werden. Cass R. Sunstein, Professor an der renommierten Harvard Law School, befasst sich in diesem Beitrag mit dem Phänomen der sogenannten Gruppenpolarisierung. Dieses lässt sich beobachten, wenn Sichtweisen von Gleichgesinnten infolge des Austausches untereinander sukzessive extremere Ausprägungen annehmen. Genau dies passiere permanent und rund um den Globus in sozialen Medien, so Sunstein – mit der Folge, dass es hunderten Millionen Menschen immer schwerer falle sich über ideologische oder politische Gräben hinweg zu verständigen. Dass ein solcher Text im Facebook-Blog veröffentlicht wird, ist freilich bemerkenswert. Nach zuletzt massiver öffentlicher Kritik lässt das Unternehmen nun gemäßigte Kritiker aus der Wissenschaft zu Wort kommen. Was daraus folgt, bleibt abzuwarten. Handlungsbedarf besteht zum Beispiel bei der Beforschbarkeit. Wissenschaftler beklagen, dass der Zugang zu Facebook für unabhängige Forschung sehr schwierig und eingeschränkt sei. Hier gäbe es konkreten Handlungsbedarf. Mit dem Einfluss von den sozialen Medien zugrunde liegenden algorithmischen Prozessen auf den gesellschaftlichen Diskurs haben wir uns auch in unserem Arbeitspapier „Digitale Öffentlichkeit“ auseinandergesetzt.


🔖Algorithmus sagt Psychosen vorher

(Prediction of psychosis across protocols and risk cohorts using automated language analysis), 19. Januar 2018, Wiley Online Library

Mithilfe algorithmischer Technologie zur Sprachanalyse lässt sich anhand von Sprachaufnahmen mit bis zu 83-prozentiger Sicherheit das künftige Auftreten einer Psychose feststellen. Darüber berichtet ein Team von Forschern, die an der Universität of California in Los Angeles sowie am New York State Psychiatric Institute/Columbia University Experimente mit zu einer Risikogruppe gehörenden Jugendlichen und jungen Erwachsenen durchführten.
Als Indikator für eine erhöhte Psychosewahrscheinlichkeit identifizierte der Algorithmus teilweise feine Unterschiede in der sprachlichen Syntax der Probanden. Eine Zusammenfassung der Studie gibt es hier. Große Teile der alltäglichen Kommunikation werden heutzutage beispielsweise in sozialen Medien oder Chat-Apps dokumentiert und sind damit für Dritte auswertbar. Die Studienerkenntnisse zeigen, wie eine völlig neue und für Individuen unfreiwillige Dimension an Transparenz entsteht.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

 



Kommentar verfassen