Algorithmenethik Erlesenes #61

Was haben ein Pferd namens Hans und Algorithmen gemeinsam? Brauchst es wirklich ein KI-Wettrüsten? Wie gelingt das Zusammenspiel zwischen Mensch und Maschine künftig im Flugzeug? Neugierig? Dann gehen Sie auch diese Woche diesen Fragen im Erlesenes-Newsletter auf den Grund!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Die “Schummelalgorithmen” hinter der Künstlichen Intelligenz

14. März 2019, NZZ

Ein Pferd namens Hans, das angeblich rechnen konnte, aber in Wirklichkeit nur die Mimik und Körperhaltung des Menschen interpretierte, um die Rechenaufgaben zu „lösen“, prägte den Begriff “Kluger-Hans-Effekt”. Auch bei Algorithmen kann dieser Effekt auftreten, wenn ihnen Fähigkeiten nachgesagt werden, die sie gar nicht besitzen, schreibt NZZ-Redakteur Stefan Betschon. Er bezieht sich auf Erkenntnisse von Forscher:innen der Technischen Universität Berlin (TU Berlin), des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design zu sogenannten “Schummelalgorithmen”. Die Wissenschaftler:innen entwickelten ein Verfahren, um Entscheidungen Künstlicher Intelligenz (KI) nachvollziehbar zu machen, wie sie in einer Pressemitteilung erläuterten. Die für sie überraschende Erkenntnis: Moderne KI-Systeme basieren auf einer Bandbreite an Lösungsstrategien. Teilweise würde KI auch auf keine sinnhafte Strategie zurückgreifen und die Kompetenz in einer spezifischen Domäne lediglich suggerieren, analog zum Pferd Hans. Für den praktischen Einsatz seien solche Verfahren völlig unbrauchbar. Das von den Wissenschaftler:innen entwickelte Verfahren könnte ein erster Schritt sein, KI-Systeme robuster, erklärbarer und sicherer zu machen.


🔖Die Komplexität der Automatisierung

(AI Safety, Leaking Abstractions and Boeing’s 737 Max 8), 14. März 2019, Medium

Zwei tragische Unglücke des Boeing-Flugzeugtyps 737 Max 8 innerhalb weniger Monate werfen drängende Fragen zum immer komplexeren Zusammenspiel von Softwareautomatisierung, physischen Komponenten und menschlichem Eingreifen auf, konstatiert der Softwareexperte Carlos E. Perez. Die von Boeing gewählte Softwarelösung der 737 Max 8 entspreche in Sachen Ambitionen im Grunde dem Automatisierungslevel Stufe 5 – ein Algorithmus, der eigenständig vorliegende Informationen bewerten und unvorhergesehene Probleme lösen kann. Doch eine derartig fähige Künstliche Intelligenz existiere bislang gar nicht. In seinem Beitrag erläutert Perez die verschiedenen Stufen der Automatisierung bezugnehmend sowohl auf Fahrzeuge als auch Flugzeuge, geht auf frühere Fälle von Problemen mit Software in der Luftfahrt ein, die fatale Folgen hatten, und er zeigt auf, wie Anbieter:innen (sowie Anwender:innen) die mit fortschreitendem Automatisierungsgrad zunehmende Komplexität über den Kopf wachsen kann. Mehr zum autonomen Fahren und dem Zusammenspiel zwischen Mensch und Maschine schreibt Torsten Kleinz in seinem Blogbeitrag: „Der lange Weg zum autonomen Auto“.


🔖Künstliche Intelligenz braucht kein “Wettrüsten”

(Stop calling artificial intelligence research an “arms race”), 6. März 2019, Washington Post

In der öffentlichen und medialen Debatte wird das Streben um Fortschritte bei Künstlicher Intelligenz (KI) speziell zwischen den zwei Großmächten USA und China mitunter gerne als “Wettrüsten” (im Englischen “arms race”) bezeichnet. Diese Wortwahl ist in verschiedener Hinsicht sehr problematisch, argumentiert der Cybersecurity-Experte Justin Sherman in einem Meinungsbeitrag in der Washington Post. Der Begriff zeichne das Bild eines Nullsummenspiels, bei dem unterschiedliche Akteure isoliert voneinander um totale Dominanz wetteifern, statt Know-how auszutauschen. Außerdem suggeriere der Gedanke eines “KI-Wettrüstens”, dass es sich bei KI um eine vor allem militärisch relevante Technologie handele – dabei gebe es viele andere, teilweise auch weitaus weniger brenzlige Einsatzgebiete. Angesichts der gesellschaftlichen Tragweite von KI sei bedachtes, kluges Vorgehen elementar. Die “Wettrüsten”- Metapher aber animiere eher zu überstürztem Handeln, nur um der Erste zu sein, kritisiert Sherman.


🔖Das „schmutzige Geheimnis“ der Trainingsdatensätze für Gesichtserkennung 

(Facial recognition’s „dirty little secret“: Millions if online photos scraped without consent), 12. März 2019, NBC News

“Wenn Algorithmen zur Gesichtserkennung mit Datensätzen trainiert werden, nutzen Forscher:innen häufig schlicht jedes Bildmaterial, das ihnen über den Weg läuft.” So zitiert die NBC-News-Journalistin Olivia Solon den US- Juraprofessor Jason Schultz in einem Artikel, in dem sie aufdeckt, dass sich der IT-Konzern IBM für einen jüngst zu Forschungszwecken veröffentlichten Datensatz mit einer Million verschiedenen Gesichtern (siehe Erlesenes #55) bei der Fotoplattform Flickr bedient hat – ohne dass die Fotograf:innen vorher gefragt wurden. Da das besagte Bildmaterial von den Urheber:innen jeweils unter “Creative Commons”-Lizenz bei Flickr veröffentlicht wurde, sei das Vorgehen von IBM rechtlich wohl legitim. Dennoch werfe der Fall Fragen darüber auf, unter welchen Voraussetzungen öffentliches Bildmaterial für die KI-Forschung verwendet werden sollte – und welche Handhabe Fotograf:innen oder abgebildete Personen haben, dieser spezifischen Nutzung zu widersprechen.


🔖Algorithmus erkennt Gentrifizierung anhand von Fotos 

(Tracking urban gentrification, one building at a time), 13. März 2019, University of Ottawa

Besonders die Berliner wissen: Gentrifizierung verändert Viertel oder ganze Städte – manchmal in rasantem Tempo. Künstliche Intelligenz (KI) ist in der Lage, mit geringem Zeitaufwand einen akkuraten Überblick über die Gegenden zu geben, die eine solche Transformation durchlaufen, wie die University Ottawa in einer Pressemeldung informiert. Michael Sawada, Professor im Fachbereich für Geographie, Umwelt und Geomatik, hat mit zwei seiner Studenten einen Algorithmus entwickelt, der auf hunderttausende Fotos der Innenstadt von Ottawa aus den Jahren 2006 bis 2017 bei Googles Kartendienst Streetview zugreift und anhand von Veränderungen an Gebäuden und am Straßenbild Gentrifizierung erkennt. Der Algorithmus hat mit 95-prozentiger Genauigkeit entsprechende Merkmale erfasst – insgesamt 3483 Indizien einer Gentrifizierung an knapp 3000 Orten in den zentralen Bereichen der kanadischen Hauptstadt. Sofern ähnliches Bildmaterial vorliegt, lässt sich der Algorithmus problemlos auch für andere Regionen nutzen. Das Papier zur Studie gibt es hier.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen