Kann Gesichtserkennungssoftware dabei helfen, den Amerikanischen Bürgerkrieg aufzuarbeiten? Wo liegen die Grenzen von Deep Learning? Was hat es mit dem neuen Spitzen-Verbund für maschinelles Lernen (ELLIS) auf sich?

Wir verabschieden uns für dieses Jahr mit einer kuratierten Auswahl an Debattenbeiträgen, neuen Anwendungsfällen, wissenschaftlichen Erkenntnissen rund ums Thema Algorithmenethik. All unseren Leser:innen wünschen wir erholsame Feiertage und einen guten Rutsch ins neue Jahr!  Sie dürfen sich schon jetzt auf den 10. Januar freuen – da wird die erste Erlesenes Ausgabe 2019 in Ihrem Posteingang landen.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Zehn Empfehlungen für den ethischen Einsatz Künstlicher Intelligenz (KI)

(After a Year of Tech Scandals, Our 10 Recommendations for AI), 6. Dezember 2018, AI Now Institute

Technologieunternehmen sollten eine diskriminierungsfreie Einstellungs- und Arbeitspraxis verfolgen: Damit das Risiko von Benachteiligung durch ihre Algorithmen möglichst gering ausfällt, sollten Vorurteile im Unternehmen selbst vorher erkannt und bekämpft werden. So lautet eine von zehn in diesem Beitrag des New Yorker Forschungsinstituts AI Now präsentierten Empfehlungen für den Einsatz Künstlicher Intelligenz (KI). Die Empfehlungen basieren auf einer ausführlichen Analyse der Herausforderungen und sich abzeichnenden Lösungstrends, die AI Now im parallel veröffentlichten Jahresbericht 2018 (PDF) detailliert erörtert. Weitere Forderungen der Organisation sind: Transparenz und Überprüfbarkeit von KI-Software, die durch den öffentlichen Sektor genutzt wird, ein strengeres Vorgehen gegen falsche KI-Werbeversprechen, eine Rechenschaftspflicht entlang der ganzen KI-Wertschöpfungskette sowie interdisziplinäre KI-Universitätsprogramme. Im Zusammenhang mit den zehn Empfehlungen verweisen wir auch gern auf unser Lösungspanorama für algorithmische Systeme.


🔖Debatte zu den Grenzen von Deep Learning

(The deepest problem with deep learning), 1. Dezember 2018, Medium

Verhilft Deep Learning, eine populäre Form des maschinellen Lernens, Künstlicher Intelligenz (KI) irgendwann zu menschenähnlicher Intelligenz oder versprechen ihre größten Befürworter zu viel? Können Deep-Learning-Evangelisten konstruktiv mit Kritik umgehen? Und dürfen Zweifel an dem Potenzial des Verfahrens eigentlich von Personen kommen, die selbst keine Algorithmen entwickeln? All diese Fragen thematisiert der US-amerikanische Professor Gary Marcus in diesem umfassenden und konfliktfreudigen Beitrag. Marcus vertritt die Position, dass Deep Learning nur einen Teil der benötigten KI-Werkzeuge ausmacht. Er findet, dass einige Vertreter des Fachs ihre Augen vor den Grenzen von Deep Learning verschließen. Gemäß Marcus versagt Deep Learning wenn es darum geht, das Gelernte zu generalisieren. Deshalb genüge der Ansatz nicht für die Weiterentwicklung von KI.


🔖Risiken der Gesichtserkennung – Microsoft warnt vor staatlicher Totalüberwachung

7. Dezember 2018, Spiegel Online

Schon zum zweiten Mal in diesem Jahr warnt Microsoft-Chefjustiziar Brad Smith in einem ausführlichen Blogbeitrag vor den Risiken von Gesichtserkennung. Wie bereits im Juli 2018 (siehe Erlesenes #34) sorgte auch Smiths neuerlicher Text, dieses Mal stolze 24.000 Zeichen lang, für erhebliche Aufmerksamkeit. Der freie Journalist Jörg Breithut fasst bei Spiegel Online die Kernpunkte des Microsoft-Rechtsexperten zusammen. Konkret beschreibt Smith drei (bereits an vielen Stellen gut dokumentierte) Gefahren: Diskriminierung von nicht Weißen und Frauen, Eingriff in die Privatsphäre sowie staatliche Totalüberwachung. Dass Microsoft diese Punkte derartig prominent hervorhebt, ist zu begrüßen. Allerdings hat das Unternehmen selbst keine weiße Weste, wie Breithut anmerkt. Es beteilige sich an verschiedenen aus algorithmenethischer Perspektive nicht unumstrittenen Projekten und habe beispielsweise mit der umstrittenen Polizeibehörde ICE zusammengearbeitet, die Kinder an der Grenze der USA zu Mexiko von ihren Familien trennte. Dennoch sei Aufmerksamkeit für das Thema weiterhin wichtig. Passend dazu: Die Computerwissenschaftlerin Joy Buolamwini hat gerade zusammen mit der Georgetown University die Initiative Safe Face Pledge gestartet, die sich dem ethischen Einsatz von Gesichtserkennungstechnologie verschreibt.


🔖Wie Gesichtserkennung dabei hilft, den Amerikanischen Bürgerkrieg aufzuarbeiten

(Unknown Civil War Faces are Being Identified Through Facial Recognition App), 1. Dezember 2018, The Vintage News

Der Computerwissenschaftler und Historiker Kurt Luther nutzt für sein Projekt “Civil War Photo Sleuth” Gesichtserkennungstechnologie, um auf Fotos aus dem Amerikanische Bürgerkrieg (1861–1865) abgebildete Personen zu identifizieren. Alexandra Dantzer, Autorin bei The Vintage News, berichtet über das 2013 als Facebook Page begonnene Unterfangen, das neben Künstlicher Intelligenz (KI) auch stark auf eine Community an Freiwilligen setzt. Historiker:innen und Nachfahren können über die seit August 2018 bestehende Website des Projekts Hinweise auf Aufnahmeorte oder die Fotograf:innen übermitteln beziehungsweise selbst Personen identifizieren. Mit dem kombinierten Ansatz aus Künstlicher und menschlicher Intelligenz, der primär der Verringerung von Fehlern diene, sei seitdem die Identität von 75 fotografierten Personen festgestellt worden.


🔖Ein Spitzen-Verbund für maschinelles Lernen

6. Dezember 2018, Frankfurter Allgemeine Zeitung

Führende europäische Wissenschaftler:innen haben einen Spitzen-Verbund für maschinelles Lernen namens ELLIS (“European Laboratory for Learning and Intelligent System”) gegründet, berichtet der Leiter der Onlinewirtschaftsredaktion der FAZ, Alexander Armbruster. Die Forscher:innen, darunter auch die deutschen KI-Pioniere Jürgen Schmidhuber und Sepp Hochreiter, planen unter anderem einen europäischen KI-Promotionsstudiengang, der mit den amerikanischen Topfakultäten sowie den Forschungsaktivitäten der führenden Technologieunternehmen aus den USA und China mithalten kann. Der Vorstoß habe bereits substanzielles Interesse bei der deutschen Wirtschaft geweckt. Auch die Tech-Firmen selbst, wie Google und Amazon, signalisieren dem Artikel gemäß Unterstützung für die Initiative. Das ist freilich nicht verwunderlich, immerhin herrscht überall ein Mangel an KI-Spitzenkräften. In welche Region und zu welchen Arbeitgebern es die im Rahmen von ELLIS ausgebildeten Expert:innen am Ende ziehen wird, bleibt abzuwarten.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren