Was uns gerade in der Algorithmenethik-Welt bewegt: Lohnt sich Verhaltensforschung an Künstlicher Intelligenz (KI)? Würde ein Algorithmus die achte Klasse meistern? Wie verändern Apps Verkehrsflüsse in L.A.? Eine bunte Themenauswahl erwartet Sie auch diese Woche im Erlesenes-Newsletter.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Forscher:innen analysieren 84 ethische Leitlinien zu Künstlicher Intelligenz 

3. September 2019, swissinfo.ch

Leitlinien und Regeln für Künstliche Intelligenz (KI) sind in aller Munde. „Deshalb wollten wir einen Überblick schaffen, woher diese Leitlinien stammen, welche ethischen Prinzipien genannt und wie stark sie gewichtet werden“, sagt Anna Jobin, Forscherin im Bereich Gesundheitsethik an der ETH Zürich. Sie und ihre Mitstreiter:innen Marcello Ienca und Effy Vayena haben 84 derartige Dokumente gesammelt und verglichen, berichtet die Nachrichtenagentur Keystone-SDA (das wissenschaftliche Papier dazu finden Sie hier). Das Trio habe festgestellt, dass sich kein einziges ethisches Grundprinzip in allen Dokumenten wiederfand. Das am häufigsten genannte Prinzip sei „Transparenz” (ein nicht unproblematisches Buzzword). Es tauche in 73 von 84 Dokumenten auf. Eine weitere umstrittene Erkenntnis der Forscher:innen: In der Diskussion zur KI-Ethik seien bestimmte Weltregionen, insbesondere Afrika, Süd- und Mittelamerika sowie Zentralasien, kaum involviert. „Wenn wir den Anspruch haben, dass KI weltumgreifend wirken soll, sollte auch die ganze Welt mitreden“, wird Jobin zitiert. Tatsächlich ließen sich aber auch in asiatischen Ländern, in Südamerika und in Nordafrika KI-Leitlinien finden, kritisiert die KI-Ethikerin Deb Raji die Studienergebnisse.
In eigener Sache: In einem breiten Beteiligungsprojekt haben wir uns ebenfalls mit Regeln für die Gestaltung algorithmischer Systeme beschäftigt. Das Ergebnis – die Algo.Rules – setzen wir gemeinsam mit dem unabhängigen Think Tank iRights.Lab um.


🔖Setzen, sechs: Wieso ein Algorithmus im Physikunterreicht durchfällt

(No, this AI hasn’t mastered eighth-grade science), 5. September 2019, ZDNet

Ein Algorithmus habe einen standardisierten naturwissenschaftlichen Test für Achtklässler:innen gemeistert, titelte die New York Times vor einigen Tagen. Tiernan Ray, Reporter bei ZDNet, ordnet diesen Artikel allerdings kritisch ein. In Wirklichkeit sei das Programm lediglich in der Lage, Wortkorrelationen korrekt zu identifizieren und davon ausgehend aus Multiple-Choice-Fragen mit hoher statistischer Gewissheit die korrekte Antwort auszuwählen. Das ändere nichts daran, dass den Forscher:innen des Allen Institute for Artificial Intelligence in Seattle mit dem Verfahren ein großer Wurf in puncto maschinellen Lernens gelungen sei, der neue Möglichkeiten eröffne. Nur dürfe man nicht den Schluss ziehen, dass sich die Künstliche Intelligenz tatsächlich mit Naturwissenschaft auskenne. Aber vielleicht können Algorithmen Schüler:innen irgendwann grundsätzlich von derartigen Tests – “dem langweiligsten Aspekt der schulischen Bildung” – befreien, spekuliert Ray.


🔖Verhaltensforschung am Algorithmus

(The Anthropologist of Artificial Intelligence), 26. August 2019, Quanta Magazine

Warum untersuchen Verhaltensforscher:innen keine Online-Bots und Künstlichen Intelligenzen? Warum beschränkt sich diese Aufgabe gewöhnlich auf Computerwissenschaftler:innen? Diese Fragen animierten Iyad Rahwan und rund zwei Dutzend Kolleg:innen aus verschiedenen Disziplinen dazu, im Frühjahr 2019 das Forschungsfeld “Maschinenverhalten” zu initiieren (siehe Erlesenes #67). Im Interview mit dem freien Journalisten John Pavlus bei Quantas Magazine gibt Rahwan, der als Direktor des Max-Planck-Instituts für Bildungsforschung tätig ist, Einblicke in die Hintergründe und Ziele des Unterfangens. Unter anderem diskutiert er, inwieweit “Maschinenverhalten” implizit bedeute, Computern eigene Entscheidungsfreiheit zu attestieren. Diesem Aspekt stehen manche Expert:innen, wie die Computerwissenschaftlerin Joanna Bryon, sehr kritisch gegenüberstehen, da er es menschlichen Macher:innen der Algorithmen erlaube, sich aus der Verantwortung zu stehlen. Grundsätzlich hofft Rahwan, dass die Disziplin es ermögliche, bestimmte (gesellschaftliche) Nebenwirkungen von Algorithmen frühzeitiger zu erkennen.


🔖Das Dilemma mit der Datensparsamkeit

(The Ethics of Hiding Your Data From the Machines), 22. August 2019, WIRED

Datensparsamkeit fühlt sich in Zeiten von personalisierter Werbung, Datenlecks und Identitätsdiebstahl gut an, schreibt die Wired-Autorin Molly Wood. Aber diese Praxis habe auch einen entscheidenden Nachteil: Denn viele auf die Verbesserung des Gemeinwohls, die Erhöhung von Teilhabe und den Abbau von Diskriminierung ausgerichteten KI-Anwendungen benötigen mitunter große Mengen an (personenbezogenen) Daten. Bekanntlich liegt das Problem vieler mit Schwächen behafteter algorithmischer Entscheidungsprozesse auch in qualitativ oder quantitativ unzureichendem Datenmaterial. Wood nennt eine zusätzliche Facette, die das Dilemma verkomplizieren könnte: Eine Anwendung eines Unternehmens, der man als Nutzer:in gerne eigene Daten bereitstellt, könnte irgendwann ihren Fokus ändern – und diese Daten auf weniger positive Weise einsetzen. Der Lösungsvorschlag der Autorin: Firmen sollten die schlimmsten anzunehmenden Szenarien rund um ihre Datensammlung im Vorfeld deutlich und transparent benennen. Eventuell helfe dies dann auch, ihr Eintreten unwahrscheinlicher zu machen.


🔖Wie Apps zur Stauumfahrung die Verkehrsflüsse in Los Angeles durcheinander brachten

(Waze Hijacked L.A. in the Name of Covenience. Can Anyone Put the Genie Back in the Bottle?), 20. August 2019, Los Angeles Magazine

Notorisch verstopfte Nebenstraßen in nicht für Durchgangsverkehr konzipierten Wohngebieten, frustrierte Anwohner:innen und Behörden ohne effektive Lösungsideen. So sieht seit Jahren die Realität in Los Angeles aus. Und wer könnte schuld sein? Navigations-Apps wie die der Google-Tochter Waze, die Autofahrer:innen in Echtzeit die jeweils schnellsten Routen durch die für ihre Dauerstaus berühmt-berüchtigte kalifornische Megametropole berechnen. Das Problem: Die dynamischen Algorithmen nehmen auf der Jagd nach einzusparenden Sekunden keine Rücksicht auf die städtische Verkehrsplanung oder die Eignung einer Strecke für lange Blechkolonnen. Der Journalist Jonathan Littman skizziert in diesem ausführlichen Feature-Artikel, wie Waze und ähnliche Apps die Verkehrsflüsse von Los Angeles nachhaltig verändert haben. Ein Zurück ohne die Reduzierung von fahrenden Autos gibt es wahrscheinlich nicht mehr, vermutet Littman: Mittlerweile kennen hunderttausende Autofahrer:innen die ihnen von Waze vorgeschlagenen Umfahrungsstrecken.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren