Algorithmenethik Erlesenes#7

Willkommen im neuen Jahr und zur siebten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Auch in 2018 bieten wir Ihnen mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖Ein kritischer Blick auf Deep Learning (PDF)

 (Deep Learning: A Critical Appraisal) 2. Januar 2018, Cornell University Library

Kaum etwas befeuert die Euphorie zum Thema Künstliche Intelligenz so sehr wie Fortschritte im Bereich Deep Learning. Es handelt sich um eine Form des maschinellen Lernens zur Erkennung von Mustern in großen Datenmengen unter Verwendung neuronaler Netze. Doch Deep Learning ist kein Allheilmittel und leidet im aktuellen Stadium unter einer Reihe von Schwächen und Begrenzungen. Der US-amerikanische Professor Gary Marcus setzt sich in dieser 27-seitigen, auch für interessierte Laien verständlichen Analyse kritisch, aber konstruktiv mit dem derzeitigen Stand des Verfahrens auseinander. Er nennt unter anderem Schwierigkeiten bei der Differenzierung von Kausalität und Korrelation sowie die Abhängigkeit von großen Datenmengen. Am Ende sei Deep Learning schlicht eine statistische Technik und habe daher die gleichen Einschränkungen wie alle statistischen Werkzeuge, so Marcus.


🔖Wie Facebook verändert werden kann, bevor es uns verändert

(How to Fix Facebook—Before It Fixes Us) 5. Januar 2018, Washington Monthly

Um weiteren gesellschaftlichen und politischen Schaden durch Facebook zu verhindern, ist eine völlig neue und weitreichende Form der Regulierung erforderlich. Dieses Fazit zieht der US-amerikanische Investor, Aktivist und Musiker Roger McNamee in diesem gründlichen Essay. Als einer der frühen Geldgeber von Facebook und Mentor von Facebookgründer Mark Zuckerberg kann McNamee die Gefahren der Kombination aus Facebooks werbefinanziertem Geschäftsmodell, dem breiten Einsatz von Algorithmen zur Maximierung von Nutzeraktivität sowie der sozialen Dynamik in Onlinenetzwerken besonders gut beurteilen. In dem Essay erläutert er, wie er von einem großen Fan zu einem der größten Kritiker des sozialen Netzwerks geworden ist und wie er versucht, Management, die Politik und breite Öffentlichkeit für das Problem zu sensibilisieren zuletzt mit immer größerem Erfolg. McNamee fordert unter anderem: mehr Transparenz der Algorithmen sowie ein Verbot digitaler Bots, die sich als Menschen ausgeben. Unser Arbeitspapier zur Rolle von Intermediären wie Facebook und Google auf die politische Meinungsbildung finden Sie hier.


🔖Ein Aufkleber führt den Algorithmus hinters Licht

(These psychedelic stickers blow AI minds) 02.Januar 2018, TechCrunch

Algorithmen für maschinelles Lernen lassen sich durch Modifikationen gezielt in die Irre führen. Wie dieses “Adversarial Attack” genannte Verfahren grundsätzlich funktioniert, können Sie in Algorithmenethik Erlesenes #1 nachlesen. Ein Forscherteam hat nun eine neue Methode entwickelt, bei der ein auf einen beliebigen Gegenstand platzierter Aufkleber die Machine Learning Software unfähig macht, das eigentliche Objekt korrekt zu identifizieren. Wie die Wissenschaftler in ihrem Bericht darlegen, wird so aus einer Banane durch den daneben platzierten Sticker für die Machine Learning Software ein Toaster. Der Ansatz ist relevant, weil er anders als bisherige Methoden universell, ohne größere Anstrengung in physischen Umgebungen eingesetzt werden kann. Die Frage, wie und durch wen diese potenzielle Verwundbarkeit genutzt wird, bleibt jedoch offen. Angesichts des zunehmenden, breiten Einsatzes von Machine Learning Software in der Praxis wird eine regelmäßige Analyse von Sicherheitslücken unumgänglich.


🔖Die Wege des Algorithmus sind unergründlich

3. Januar 2018, Zeit Online

Dass die Ticketpreise der Lufthansa nach der Pleite von Air Berlin gestiegen sind, sei auf die Software zur Preissetzung zurückzuführen. Mit dieser Erklärung sorgte die Airline kurz vor Jahresende für viel Kritik. “Solche Algorithmen werden ja nicht im Himmel vom lieben Gott geschrieben”, kommentierte Andreas Mundt, der Präsident des Bundeskartellamts. Zeit-Online-Wirtschaftsredakteur Felix Rohrbeck schreibt in seinem kompakten Artikel (kostenlose E-Mail-Registrierung bei Zeit+ erforderlich) über den Fall und merkt an, dass steigende Preise zwar ärgerlich sind, die eigentlichen Herausforderungen im Zusammenhang mit algorithmischen Entscheidungen aber anderswo liegen (für unsere Leserinnen und Leser nicht überraschend). Das Beispiel Lufthansa zeigt vor allem, wie Geschäftsgeheimnisse und der vermeintliche Blackbox-Charakter von Algorithmen durch menschliche Entscheidungsträger genutzt wird, um sich vor Verantwortung zu drücken.


🔖Sei nicht böse!

(Don’t be evil), Januar 2018, Logic

Viele der weltweit alltäglichen algorithmischen Systeme entstehen in den Großraumbüros des Silicon Valley und in mit ihnen verflochtenen Forschungsinstitutionen. Unwiderruflich findet die Ideologie, Weltsicht und Kultur der kalifornischen Tech-Elite ihren Weg in die Software, die Milliarden täglich nutzen. Wie ticken die Menschen dort? Was meinen die Verantwortlichen der großen Plattformen eigentlich, wenn sie mit ihren Erfindungen “die Welt besser machen wollen”? Auf Basis welcher ethischer Prinzipien entsteht der Code, der darüber entscheidet, welche Informationen wir sehen, wie das selbstfahrende Auto reagiert und was der Smart Assistant zu uns sagt? Der Stanford-Professor und Silicon-Valley-Kenner Fred Turner liefert in diesem ausführlichen Interview eine Vielzahl teils unkonventioneller und dennoch hochgradig erkenntnisreicher Einblicke.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren. Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

 

 



Kommentar verfassen