Falls Sie es noch nicht wussten: Am 1. November war Allerheiligen. Der Erlesenes Newsletter kommt daher diese Woche erst am Freitag. Laut dem israelischen Historiker Yuval Noah Harari werden diejenigen unter uns, die Künstlicher Intelligenz (KI) erschaffen und beherrschen können, selber zu gottartigen Wesen. Wir haben den Feiertag daher genutzt, um einmal tief durchzuatmen und dann weiter daran zu arbeiten, dass Algorithmen und KI nicht nur ein paar wenigen Göttern, sondern dem Gemeinwohl dienen.  

Wir wünschen viel Spaß beim Lesen über Experimente zur Moral selbstfahrender Autos, den ersten KI-Jahresrückblick, Ethik-Kodizes für Algorithmen und vieles mehr.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Weltweites Experiment zu moralischen Entscheidungen für selbstfahrende Autos

(Self-driving car dilemmas reveal that moral choices are not universal), 24. Oktober 2018, Nature

Andere Länder, andere Werte. Dies gilt auch für kritische Situationsentscheidungen zu selbstfahrenden Autos, in denen Menschen aus unterschiedlichen Kulturkreisen unterschiedliche moralische Prinzipien geltend machen. Das ist das Ergebnis eines Onlineexperiments des Massachusetts Institute of Technology (MIT), an dem sich 2,3 Millionen Menschen aus 233 Ländern und Territorien beteiligten. Das Experiment zeigt allerdings auch, dass zwei moralische Werte universell zu gelten scheinen: Die Priorisierung der Rettung von Menschen anstelle von Tieren und die Rettung von vielen gegenüber Einzelnen. Amy Maxmen, Journalistin bei Nature, liefert in ihrem Text einen Überblick über die Resultate und lässt einige Expert:innen zu Wort kommen. Das Echo fällt durchwachsen aus: Manche sehen die Untersuchung als hilfreichen Beitrag für das schwierige Unterfangen, faire Algorithmen für selbstfahrende Autos zu entwickeln. Kritik zieht dagegen die Tatsache auf sich, dass die den Teilnehmer:innen präsentierten Szenarien äußerst theoretischer Natur sind und damit ihr Erkenntniswert für moralische Bewertungen realer Situationen unklar bleibt. Eine deutschsprachige Zusammenfassung der Studie gibt es bei Zeit Online.


🔖Ein Rückblick auf die Künstliche-Intelligenz-Ethikdebatten des Jahres

(AI in 2018: A year in review), 24. Oktober 2018, AI Now Institute

2018 wurde die Gefahr der Diskriminierung durch den Einsatz Künstlicher Intelligenz (KI) zum Gegenstand einer breiten Debatte. 2019 müsse die Schaffung einer öffentlichen Rechenschaftspflicht rund um die Verwendung von Algorithmen im Vordergrund stehen. So lautet eine der Botschaften, die Kate Crawford und Meredith Whittaker, Gründerinnen des AI Now Institute, am 16. Oktober 2018 im Zuge der Eröffnungsrede des jährlichen Symposiums ihrer Organisation verkündeten. In ihrer hier als Exzerpt nachzulesenden Rede lieferte das Duo einen umfangreichen und gleichzeitig sehr kompakten Rückblick auf die enorme Zahl an wegweisenden Ereignissen und Diskussionen in Bezug auf ethische Herausforderungen des Einsatzes von KI, welche die vergangenen zehn Monate prägten. Der nächste Schritt sei nun die Bildung neuer Koalitionen, um KI-Systeme zu evaluieren und gefährdete Gruppen zu schützen. KI sei nicht nur Technologie, sondern Macht, Politik und Kultur, so Crawford und Whittaker zum Abschluss.


🔖Der automatische, kassenlose Supermarkt hat ein Vorurteil weniger

(In Amazon Go, no one thinks I’m stealing), 26. Oktober 2018, CNET

Wenn man aus Geschäften in den USA die Angestellten und den Kassiervorgang entfernt und beides durch Künstliche Intelligenz (KI) ersetzt, beschert dies afroamerikanischen Kund:innen  ein bis dato nicht gekanntes, befreiendes Einkaufserlebnis. Das schreibt Ashlee Clark Thompson, Redakteurin bei CNET. Schon als Kind sei ihr von ihrer Mutter eingetrichtert worden, dass sie als Schwarze in Geschäften unter besonderer Beobachtung stehe. Bewusst oder unbewusst hege das Personal häufig einen Generalverdacht. Entsprechend angespannt erledigen viele Afroamerikaner:innen ihre Einkäufe. Doch als Clark Thompson erstmals ein kassenloses Amazon-Go-Geschäft betrat, war alles anders. Dort wird automatisch mithilfe von Sensoren abgerechnet. Ein aktiver Bezahlvorgang ist nicht notwendig. Kund:innen können einfach mit ihren Waren das Geschäft verlassen. Der Preis der absoluten Überwachung ist freilich nicht unerheblich. Aber dafür erlebte Clark Thompson erstmals, was es heißt, sich nicht von vornherein als potenzielle Diebin verdächtigt zu sehen.


🔖Intransparenz menschlicher Entscheidungen und die Anforderungen an den Algorithmus

(Interpretability and Post-Rationalization), 14. Oktober, becominghuman.ai

Die an Softwareingenieur:innen und ihre Algorithmen gestellten Standards in Sachen Erklärbarkeit gehen weit über die Fähigkeiten von Menschen hinaus, Beweggründe für ihre eigenen Handlungen darlegen zu können. Das schreibt Vincent Vanhoucke, KI-Ingenieur bei Google. Menschen seien Meister darin, Entscheidungen nachträglich zu rationalisieren, wüssten aber häufig nicht, was eine Handlung tatsächlich ausgelöst hat. Vanhoucke sieht es kritisch, zu hohe Ansprüche an die “innere” Erklärbarkeit von Algorithmen zu stellen – also von Algorithmen zu erwarten, dass sie explizit formulieren, wieso sie zum jeweiligen Resultat gekommen sind. Vielversprechender sei, durch gezielte Manipulationen an äußeren Rahmenbedingungen – insbesondere an den von einem Algorithmus zu verarbeitenden Daten – und den folgenden Veränderungen beim Output Rückschlüsse auf die Entscheidungsmotive zu ziehen. Vanhouckes Anliegen ist nachvollziehbar. Man kann ihm aber auch erwidern, dass es angemessen ist, in Sachen Erklärbarkeit von Künstlicher Intelligenz (KI) mehr zu warten als vom Menschen.


🔖Deutschland braucht einen Ethik-Kodex für Algorithmen 

24. Oktober 2018, SZ.de

Ein moderner Staat muss Algorithmen nutzen, auch im direkten Kontakt mit den Bürger:innen. So lassen sich Ineffizienzen verringern und Geld sparen, um es anderswo sinnvoller einsetzen zu können. Deutschland habe hier großen Nachholbedarf. Allerdings erfordere der breite Einsatz von Algorithmen ethische Leitlinien, die ebenfalls fehlten. Das konstatiert Valentin Dornis, Wirtschafts- und Digitalredakteur bei SZ.de. Zwar gebe es viele berechtigte Sorgen hinsichtlich der Verwendung von Algorithmen in der öffentlichen Verwaltung. Doch wenn Bürokratie ungerecht ist, seien nicht die Algorithmen schuld, sondern die Menschen, die diese Bürokratie gestalten und verwalten. Ethische Leitlinien würden ihnen bei der Einschätzung darüber helfen, wie sie mit neuen technischen Möglichkeiten umgehen sollen und wo die Grenzen liegen. Am Ende des Artikels erläutert Dornis einige der möglichen Eckpfeiler derartiger Regeln. Auch wir haben uns in den letzten Monaten zu dem Thema viele Gedanken gemacht und sind dabei, einen Gütekriterienkatalog für algorithmische Prozesse zu entwickeln.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren