Was verändert sich durch die aktuelle Corona-Pandemie für den Einsatz von Algorithmen? Vieles – denn noch (lange) sind algorithmische Outputs auf menschliche Interaktionen und Justierungen angewiesen. Wie wir damit in Zukunft umgehen müssen und sollten, diskutieren einige der fünf Impulse in diesem Erlesenes-Newsletter. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Algorithmus – allein zu Haus? Bei Facebook und YouTube sind Algorithmen jetzt auf sich alleine gestellt

(As humans go home, Facebook and YouTube face a coronavirus crisis), 20. März 2020, Wired

Zehntausende Auftragsarbeit:erinnen, die gewöhnlich Inhalte bei Facebook und YouTube moderieren, können aufgrund der Coronavirus-Pandemie und den damit verbundenen Büroschließungen derzeit nicht ohne Weiteres ihrer Tätigkeit nachkommen. Damit seien „die Algorithmen“ auf sich allein gestellt. Der Journalist Chris Stokel-Walker berichtet bei Wired, dass als Konsequenz vermehrt legitime Inhalte automatisch blockiert werden. Der Grund: Algorithmen seien darauf ausgerichtet, im Zweifelsfall lieber einmal zu viel zu blockieren als einmal zu wenig. Denn wo sonst Menschen im Regelfall nachträglich entscheiden und Nuancen erkennen können, greife nun die Software ohne Nachjustierung durch. Egal wie sehr Technologiefirmen davon überzeugen wollten, dass jedes Problem algorithmisch gelöst werden könne, zeige sich nun, wie wichtig die Rolle menschlicher Arbeitskräfte sei, so Stokel-Walker. Alles dem Technischen überlassen zu wollen, ist augenscheinlich keine gute Idee.


🔖„Künstliche Intelligenz“ gleicht einer Ideologie, die wir nicht akzeptieren sollten

(AI is An Ideology, Not A Technology), 15. März 2020, Wired

Künstliche Intelligenz (KI) sei in erster Linie eine politische und soziale Ideologie, kein neutraler Sammelbegriff für Algorithmen aller Art. Es sei an der Zeit, die verbreiteten Narrative rund um diese Ideologie infrage zu stellen, plädieren der Computerwissenschaftler und Philosoph Jaron Lanier sowie der Ökonom und Autor Glen Wely. In diesem zugespitzten Meinungsbeitrag kritisieren sie unter anderem die mancherorts zunehmend verbreitete Perspektive, dass hiesige Werte zu Datenschutz und Privatsphäre einem erfolgreichen Einsatz von KI im Wege stünden. Das eigentliche Probleme sei unser Bild von KI und wie diese in unseren Erzählungen als ein vom Menschen losgelöstes Phänomen beschrieben wird, an dessen Entstehung ausschließlich eine kleinen Gruppe hoch bezahlter Ingenieur:innen beteiligt ist. Wely und Lanier sprechen sich dafür aus, mit dieser Betrachtungsweise zu brechen und KI stattdessen als etwas zu sehen, dass wir alle gemeinsam erschaffen und beeinflussen können. In eigener Sache: Unsere neun Algo.Rules für die ethische Entwicklung und den Einsatz von Algorithmen richten sich an viele Akteur:innen, die an verschiedenen Stellen im Prozess Einfluss auf die Gestaltung von Technologie haben.


🔖US-Einwanderungsbehörde modifiziert Algorithmus zum Nachteil von Migrant:innen

(ICE changed an algorithm to prevent the release of detained immigrants), 9. März 2020, Quartz

Die lokale New Yorker Einwanderungsbehörde ICE (Immigration and Customs Enforcement) habe einen Algorithmus so modifiziert, dass dieser bei Fällen der Übertretung der Einwanderungsgesetze grundsätzlich für eine temporäre Freiheitsberaubung votiert – selbst wenn weder Fluchtgefahr noch Risiken für die Öffentlichkeit bestünden, schreibt Quartz-Reporterin Ephrat Livni. Das seit 2013 eingesetzte System soll eigentlich eine individuelle Risikobewertung durchführen, um zu bestimmen, wann eine Sicherheitsverwahrung notwendig ist und wann nicht. Zunächst geschah dies auch: Anfangs sei etwa die Hälfte der von dem Algorithmus bewerteten Personen bis zur Entscheidung ihres Falls gegen Kaution freigelassen worden. Nach der Veränderung des Algorithmus geschehe dies nun nur in drei Prozent der Fälle. Die Software erledige damit nicht den Auftrag, für den sie ursprünglich eingeführt worden sei, konstatiert Livni.


🔖Risiken diskriminierender Algorithmen beim Einkaufen im Internet

(Digital Commerce, AI, and Constraining Consumer Choice), 19. März 2020, The Ethical Machine

Onlineshopping verspricht Konsument:innen seit seinen frühen Anfängen in den 90er Jahren Auswahl, Bequemlichkeit und Ersparnisse – sowie seit einiger Zeit Personalisierung, ermöglicht durch ausgedehntes Datensammeln sowie den verstärkten Einsatz von Algorithmen. Doch profitieren Kund:innen tatsächlich von Personalisierung? Oder sind ausschließlich Anbieter:innen die Nutznießer:innen – auf Kosten der Verbraucher:innen? Mary J. Cronin, Management-Professorin am Boston College, thematisiert die Risiken der Diskriminierung von Kund:innengruppen, die von Algorithmen als weniger profitabel eingeschätzt werden. Verbraucher:innen hätten keine Möglichkeit, in Erfahrung zu bringen, anhand welcher Datenpunkte ein Onlineshop ihnen Produkte oder Preise vorschlägt oder welche Waren beziehungsweise Preise ihnen explizit nicht angeboten werden. Indem E-Commerce-Anbieter:innen auf Künstliche Intelligenz (KI) setzen, löse sich das ursprüngliche Versprechen, Konsument:innen eine breite Auswahl zu günstigen Preisen zu offerieren, in Luft auf, schreibt Cronin.


🔖Algorithmen helfen Justizangestellten, die Rückfallgefahr besser einzuschätzen

(In the U.S. criminal justice system, algorithms help officials make better decisions, our research finds), 2. März 2020, Washington Post

Algorithmen und Menschen seien ungefähr gleich gut (oder schlecht) darin, vorherzusagen, ob eine ins Visier der Justiz geratene Person in Zukunft ein Delikt begehen wird oder nicht – mit diesem Fazit habe 2018 eine Studie für Aufmerksamkeit gesorgt, schreibt ein Team von Wissenschaftler:innen der Stanford University und University of California at Berkeley in der Washington Post. Doch neue, von ihnen durchgeführte Forschung komme zu einem leicht anderen Resultat. In der ursprünglichen Studie hätten die Proband:innen unmittelbar Feedback zu ihren Prognosen erhalten, wodurch sie ihre Vorhersagen kontinuierlich optimieren konnten. In der Realität vergingen jedoch mitunter Monate oder gar Jahre, bis Justizangestellte erfahren, ob ihre ursprüngliche Einschätzung zur Rückfallgefahr korrekt war. Berücksichtige man diesen und andere praktische Umstände im Studiendesign, sei das ursprüngliche Resultat weniger eindeutig: Denn wenn Mitarbeiter:innen der Justiz für die Vorhersage einen Algorithmus verwenden, könne sich die statistische Chance auf eine akkurate Einschätzung erhöhen. Der Fall zeigt, dass Systeme dieser Art aber weiterhin Ausgangspunkt weiterer Forschung bleiben werden.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.