Welche Risiken bestehen für das Justizsystem, wenn Algorithmen zur Kriminalitätsprävention eingesetzt werden? Wo liegen die größten Schwächen von Bilderkennungssystemen? Kann Künstliche Intelligenz (KI) anhand von Satellitenbildern vorhersagen, mit welcher Wahrscheinlichkeit Menschen in einer bestimmten Gegend übergewichtig sind?

Um diese und einige weitere spannende Fragen, Meinungsbeiträge und neue wissenschaftliche Erkenntnisse geht es in unserem Erlesenes Newsletter #39:

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Die Tyrannei des Wahrscheinlichen in der Justiz 

19. September 2018, republik.ch

Die Idee, Straftaten mithilfe von Algorithmen zu verhindern, noch bevor sie begangen werden, findet immer mehr Anhänger:innen und Einsatzfelder. Auch in der Justiz werden Algorithmen schon seit einigen Jahren zu diesem Zwecke eingesetzt. Doch erzielt der Ansatz die erhoffte Wirkung? Die Strafrechtsprofessorin Nadja Capus zweifelt in diesem sehr kritischen Text daran. Sie sieht erhebliche Gefahren für das Justizsystem, wenn Entscheidungen rund um Kriminalitätsprävention von Maschinen statt von Menschen getroffen werden. Zum einen befürchtet Capus die Entstehung eines Tunnelblicks, weil Algorithmen Informationen nicht kontextabhängig beurteilen und weiche Daten, wie die persönliche Entwicklung eines Häftlings, gar nicht verarbeiten können. Zum anderen prognostiziert sie einen Kompetenzverlust. Wenn Fachpersonen sich daran gewöhnten, dass ohnehin der Algorithmus das letzte Wort hat, dann verlören sie ihre Fähigkeiten zu beobachten, zu evaluieren, Schlussfolgerungen zu ziehen und abzuwägen, um schließlich eine stimmige Entscheidung zu treffen.


🔖Die im Dunkeln pfeifen

22. September 2018, NZZ

In der Debatte über Künstlicher Intelligenz (KI) treffen zwei gänzlich verschiedene Sichtweisen aufeinander: die philosophisch getriebene Perspektive der Symboliker:innen, bei der grundsätzliche Fragen zu Intelligenz und Bewusstsein im Zentrum stehen, sowie die auf praktische Anwendungen fokussierte Sicht der Konnektionist:innen. Der NZZ-Journalist Stefan Betschon kommentiert den sich daraus ergebenden Konflikt. Er erklärt, wie die öffentliche Diskussion über KI stark von den Symboliker:innen beeinflusst wurde – mit der Folge, dass sich der mediale Fokus stark auf diffuse Ängste statt auf konkrete Probleme richtet. “Mehr als die Boshaftigkeit von KI-Entwickler:innen sollte man ihre Schlampigkeit fürchten”, so Betschon. Der Autor erwähnt in seinem Text auch den AI-Index der Stanford University, welcher Entwicklungen und Debatten im Bereich KI quantifiziert und visualisiert. Er zeigt unter anderem, wie sehr sich die akademische Diskussion um KI in den letzten Jahren intensiviert hat: Seit 1996 ist die Zahl der jährlich publizierten wissenschaftlichen Aufsätze zum Thema KI um den Faktor 9 gestiegen.


🔖Wenn ein Elefant die Künstliche Intelligenz überfordert

(Machine Learning Confronts the Elephant in the Room), 20. September 2018, Quanta Magazine

Eine Künstliche Intelligenz (KI) versagt in einem Experiment, das ein Kind ohne Probleme meistern würde. So beginnt Kevin Hartnett, Senior Writer bei Quanta Magazine, seinen Bericht zur Studie eines Forscherteams von Universitäten in Kanada und Großbritannien (PDF des Papiers). Ein Bild- und Objekterkennungssystem erhielt die Aufgabe, Gegenstände in einem Wohnzimmer zu identifizieren. Die KI meisterte dies zunächst problemlos. Doch ein anschließend hinzugefügtes Bild eines Elefanten brachte sie komplett aus dem Konzept: Plötzlich wollte sie im Stuhl eine Couch erkannt haben, im Elefanten einen Stuhl. Andere Objekte übersah sie komplett. Wie Hartnett in seinem Artikel erklärt, liegt die Ursache wahrscheinlich in der bislang fehlenden Fähigkeit von KIs, sich eine nicht eindeutige Szene nochmals anzuschauen, um fehlenden Kontext zu erwerben. Diese Schwäche macht viele Algorithmen anfällig für sogenannte “Adverserial Attacks” (siehe Erlesenes #1 und Erlesenes #7). Doch immerhin sind Wissenschaftler:innen aktuell dabei, Algorithmen diese fehlende Gabe zu verleihen.


🔖Wir müssen mit Algorithmen so umgehen wie mit den Mächtigen

(We hold people with power to account. Why not algorithms?), 17. September 2018, The Guardian

Im Streben, unbequeme oder schwierige Prozesse mithilfe von innovativen Algorithmen zu automatisieren, legen wir Menschen erhebliche Macht in die Hände von Maschinen – Maschinen, deren Macher:innen häufig mehr versprechen, als ihre Schöpfungen halten können; im schlimmsten Fall Maschinen, die unfaire und unverantwortliche Entscheidungen treffen und gar Menschenleben riskieren. Dr. Hannah Fry, Mathematikdozentin am University College London, plädiert angesichts dieses Missstands für ein System zur Regulierung von Algorithmen, das auf die vom verstorbenen britischen Politiker Tony Benn geprägten fünf Fragen an die Mächtigen zurückgeht: Welche Macht hat der Algorithmus? Woher erhält er seine Macht? Welche Interessen vertritt der Algorithmus? Wem gegenüber ist er Rechenschaft schuldig? Wie werden wir den Algorithmus los? Auch in unserem Lösungspanorama für algorithmische Prozesse fordern wir eine Offenlegung von Interessen und Werteabwägungen, die sich in den Algorithmen verbergen.


🔖Eine KI nutzt Satellitenbilder, um Wahrscheinlichkeit für Übergewicht zu analysieren

(This AI Predicts Obesity Prevalence – All the Way from Space), 17. September 2018, SingularityHub

Zwei Wissenschaftlerinnen der University of Washington haben eine Künstliche Intelligenz (KI) so trainiert, dass sie in der Lage ist, anhand von Satellitenbildern vorherzusagen, mit welcher Wahrscheinlichkeit die Menschen in einer bestimmten geographischen Gegend übergewichtig sind (PDF zum Papier). Marc Prosser, freier Journalist, schreibt bei SingularityHub über die Studie. Für sie fütterten die Forscherinnen den Algorithmus mit 1,2 Millionen Fotos von urbanen Gebieten der USA sowie mit Informationen zur jeweils geschätzten prozentualen Rate an Übergewichtigen. Daraufhin analysierte der Algorithmus 150.000 Satellitenbilder von sechs US-Städten. Die Studie schlussfolgert anhand der Ergebnisse, dass Charakteristiken von Wohngegenden (etwa Fehlen von Grünanlagen, Größe der Häuser, Nähe zu großen Straßen) einen signifikanten Einfluss auf das durchschnittliche Körpergewicht haben. Natürlich gibt es wie immer bei derartigen Experimenten das Risiko, Korrelation und Kausalität zu verwechseln. Dennoch bietet das System eine Chance für Gesundheitsorganisationen, ihre Projekte und Ressourcen gezielter einzusetzen.


🔖In eigener Sache: Auswertung der Blogparade – Meinungen und Ideen zu Künstlicher Intelligenz fürs Gemeinwohl

Anfang August hatten wir Euch anlässlich der Veröffentlichung des KI-Eckpunktepapiers der Bundesregierung darum gebeten, Eure Gedanken zum Thema „KI und Gemeinwohl“ mit uns zu teilen. An der Blogparade haben sich Menschen mit sehr unterschiedlichen Hintergründen beteiligt – aus der Zivilgesellschaft, dem Privatsektor sowie aus der Verwaltung, Menschen, die sich aus beruflichem, und solche, die sich aus privatem Interesse mit dem Thema beschäftigen. Eine Diversität, die sich auch in den Beiträgen widerspeigelt. Gefordert werden mehr gemeinwohlorientierte KI-Innovation, besserer Zugang zu Daten, Transparenz über den Einsatz von Algorithmen, ein breiter gesellschaftlicher Diskurs und Kompetenzaufbau und vieles mehr. In diesem Artikel haben wir die unterschiedlichen Meinungen, Ideen und Erkenntnisse aus den eingereichten Beiträgen zusammengefasst.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren