Algorithmenethik Erlesenes #15

Vielen Dank an alle, die an unserer Umfrage teilgenommen haben! Wir werten die Ergebnisse derzeit aus und werden versuchen, möglichst viele Ihrer Anregungen umzusetzen. Sollten Sie weiteres Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖Träumen neuronale Netzwerke von digitalen Schafen?

(Do neural nets dream of electric sheep?) 02. März 2018, aiweirdness.com

„Hat irgendjemand ein Foto von einem Schaf an einem ungewöhnlichen Ort?“ fragt Janelle Shane auf Twitter. Sie forscht als Wissenschaftlerin zu Optik und Neuronalen Netzwerken. Mit den Bildern will sie testen, wie gut Bilderkennungssoftware Schafe an ungewöhnlichen Orten erkennt. Wie dieser Artikel und auch ihr Twitter Feed zeigt, ist dies meistens nicht der Fall. Füttert man die Software NeuralTalk2 mit einem Foto von einem Schaf in einer Küche, gibt sie aus: Das Schaf wäre eine Katze. Wie Shane in diesem lehrreichen und gleichzeitig sehr amüsanten Artikel verdeutlicht, liegt das daran, dass die Software nicht wie ein menschlicher Betrachter versteht, was sie sieht, und mit Ungewöhnlichem schlecht umgehen kann. Die der Software zugrunde liegenden Algorithmen wurden anhand von Fotos trainiert, die zuvor Menschen verschlagwortet hatten: Katzen in Küchen, Schafen auf Wiesen und so weiter. Die Algorithmen erkennen gewisse Elemente auf einem Foto, wie eine Küche oder ein Tier, und raten den Rest anhand von Wahrscheinlichkeiten. Da auf Fotos und auch in den Trainingsdaten häufiger Katzen als Schafe in Küchen stehen, kommt der Fehler zustande.


🔖Öffentliche Kontrolle automatisierter Entscheidungen: Erste Lehren und neue Methoden (pdf)

(Public Scrutiny of Automated Decisions: Early Lessons and Emerging Methods (pdf) 27. Februar 2018, Omidyar Network

Algorithmische Prozesse bestimmen, häufig unbemerkt, einen stetig wachsenden Teil unseres alltäglichen Lebens. Umso wichtiger ist es, dass diese Prozesse transparent und erklärbar gemacht werden und einer öffentlichen Kontrolle unterliegen. Der gemeinnützige Investor Omidyar Network und die Nichtregierungsorganisation Upturn haben einen Bericht zu den politischen Rahmenbedingungen veröffentlicht. Anhand vieler sehr anschaulicher Beispiele zeigen sie auf, warum die Kontrolle algorithmischer Prozesse unabhängiger Recherchen und Untersuchungen von Journalisten und Aktivisten bedarf. Der Bericht systematisiert Rechercheansätze zu den Auswirkungen algorithmischer Entscheidungsfindung und beschriebt, wie diese gestaltet werden könnten. Die Upturn-Autoren Aaron Rieke, Miranda Bogen und David G. Robinson machen dabei deutlich, dass Überprüfbarkeit auch durch einfache technische Ansätze möglich ist. Um dies zu realisieren, brauche es aber stärkeren Druck aus der Zivilgesellschaft, um theoretische Ansätze auch in die Praxis zu überführen.


🔖Einsatz von Predicitve Policing in New Orleans vor Behörden und Öffentlichkeit verheimlicht

(Palantir has secretly been using New Orleans to test its predictive policing technology), 27 Februar 2018, The Verge

Die Polizei von New Orleans nutzt seit mehreren Jahren Software der US-Firma Palantir, die Individuen identifizieren soll, die einem besonders hohen Risiko ausgesetzt sind, Täter oder Opfer einer Straftat zu werden. Ob die Software wirklich funktioniert und welches Risiko für die Verletzung von Freiheitsrechten und Diskriminierung besteht, wurde bisher noch nicht unabhängig untersucht, wie eine investigative Recherche des Magazins The Verge zeigt. Der Journalist Ali Winston beschreibt die Funktionsweise des Systems und zeigt, wie die Zusammenarbeit von Palantir und der Polizei von New Orleans zustande kommen konnte, ohne dass große Teile der lokalen Behörden, geschweige denn die Öffentlichkeit, darüber informiert wurden. Spoiler: Die Ursache der Intransparenz ist nicht technischer Natur, sondern eine Mischung aus politischen Strukturen, persönlichen Beziehungen von Entscheidungsträgern und einer bei Palantir stark ausgeprägten Kultur der Geheimhaltung.


🔖Fallstudie: Sollte ein Algorithmus uns sagen, wen wir befördern sollen?

(Case Study: Should an Algorithm Tell You Who to Promote?), 28. Februar 2018, Harvard Business Review

Wen soll die Managerin befördern: Die von ihr protegierte Molly, selbstbewusst, umsichtig und kreativ, deren Stärken und Schwächen sie genau kennt. Oder Ed, der innerhalb des Unternehmens besser vernetzt ist, einige Erfolge vorzuweisen hat, doch dann zu spät zum Jobinterview kommt und leicht nervös und steif wirkt? Diese fiktive Fallstudie von Jeffrey T. Polzer, Professor für Human Resource Management in der Organizational Behavior Unit der Harvard Business School, gibt keine Antworten, sondern provoziert relevante Fragen. Die Hauptakteurin, VP of Sales in einem globalen Unternehmen, befindet sich in einer Zwickmühle: Ihr Unternehmen nutzt einen auf Netzwerkanalyse basierenden Algorithmus, der errechnet, wer am ehesten befördert werden sollte. Doch das Ergebnis des Algorithmus widerspricht ihrem Bauchgefühl und sie versteht nicht, wie das Programm zu seinem Ergebnis gekommen ist. Leser sind dazu aufgerufen, sich an der Debatte über die richtige Entscheidung zu beteiligen. Ein Blick in die Kommentarspalte lohnt sich dementsprechend. Oder noch besser: direkt mitdiskutieren.


🔖Plattform-Kapitalismus: „Wir müssen über Verstaatlichung nachdenken“

25. Februar 2018, Zeit Online

Eine kleine Zahl von Unternehmen macht die Vernetzung von Marktteilnehmern profitabel und wird dadurch immer größer und mächtiger. Willkommen im „Plattform-Kapitalismus“. Der Zeit-Online- Redakteur Tobias Haberkorn spricht in diesem sehr zum Nachdenken anregenden Interview mit dem Ökonomen und Autor des Buches „Platform Capitalism“, Nick Srnicek, über die Geschäftsmodelle von Google, Amazon, Facebook und Co. und die Notwendigkeit für öffentliche Kontrolle. Wer sich Gedanken macht über die Netzwerkeffekte von Plattformen, die daraus resultierenden Monopoleffekte und ihre Gefahren, der sollte dieses Interview lesen. Srnicek macht deutlich: Als Individuum kann man durch kleine Sabotageakte gegen das System ankämpfen. Doch ohne die Vielfalt algorithmischer Systeme haben Betroffene jedoch nur sehr begrenzte Möglichkeiten, sich den Verfahren und Folgen zu entziehen. Auch Selbstregulierung steht er eher skeptisch gegenüber. Srniceks Forderung nach einer Überführung der Plattform-Firmen in öffentlichen Besitz klingt provokativ, radikal und einfach.

Bonusempfehlung: Der Blick auf andere Infrastrukturen mit hoher Konzentration wie die Strom-, Bahn- oder Telekommunikationsnetzte zeigt, dass es andere Regulierungsansätze gibt. Der Jurist Tim Wu plädiert dafür, bestimmte Plattformen als Infrastrukturen zu regulieren. Wu hat konkrete Vorschläge für rechtlich garantierte Prinzipien wie Netzneutralität oder die Trennung von Produzenten von Inhalten und Infrastrukturbetreiber.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfe



Kommentare

  1. / von Algorithmenethik | Algorithmenethik Erlesenes#20 - Algorithmenethik

    […] durchgesetzt werden. Die gesamte Studie gibt es hier (PDF). Passend zum Thema empfahlen wir in Algorithmenethik Erlesenes #15 eine Fallstudie zu der Frage, ob Algorithmen Entscheidungen über Beförderungen treffen […]

  2. / von Algorithmenethik | Algorithmenethik Erlesenes #22 - Algorithmenethik

    […] Bilderkennungssoftware, die Schafe finden sollte, aber stattdessen Gras zu erkennen lernte (siehe Algorithmenethik Erlesenes #15), sowie eine KI, die in einem alten Atari-Computerspiel einen Fehler fand, der ihr erlaubte, ohne […]

Kommentar verfassen