Algorithmenethik Erlesenes #98

Wie können wir Algorithmen uns und uns den Algorithmen verständlich machen? Ob es immer ausgefeiltere Erklärungen sind oder etwa ein Bingo-Spiel zur Künstlichen Intelligenz: Es gibt viele Wege die Entscheidungen von algorithmischen Systemen zu verdeutlichen. Aber sind denn für einen Algorithmus unsere Bedürfnisse und Entscheidungen immer klar erkennbar? Zu diesen Fragen finden Sie in der 98. Ausgabe von „Erlesenes“ viele Anregungen. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Fragen zur Algorithmenethik dominierten wichtige KI-Konferenz

(The battle for ethical AI at the world’s biggest machine-learning conference), 24. Januar 2020, Nature

Bei der jüngsten Ausgabe der Fachkonferenz zum maschinellen Lernen „NeurIPS“ im kanadischen Vancouver war es für Forscher:innen nahezu unmöglich, über Künstliche Intelligenz (KI) zu referieren oder zu diskutieren, ohne dabei auch ethische und soziale Implikationen anzusprechen. So zitiert Elizabeth Gibney vom Wissenschaftsmagazin Nature die KI-Expertin und -Aktivistin Meredith Whittaker: Die Frage sei jedoch, ob die große Aufmerksamkeit für Algorithmenethik die notwendigen strukturellen Veränderungen nach sich ziehen werde. Gemäß Gibneys Bericht scheinen die Chancen aber nicht schlecht zu stehen: Mit 13.000 Teilnehmer:innen habe es sich um eine der wichtigsten Zusammenkünfte dieser Disziplin gehandelt. Zwar mangele es noch an formalen Anforderungen, wie die Ethik auch in wissenschaftliche Arbeiten einfließen könnte, aber zumindest gebe es mittlerweile eine Checkliste zur Reproduzierbarkeit von präsentierten Studien und ein Ethikkomitee, das sich Problemen bei Einreichungen widmet.


🔖Google Maps: Berliner Künstler sorgt mit 99 Smartphones für virtuellen Stau

2. Februar 2020, t3n

Der Künstler Simon Weckert sorgte in den vergangenen Tagen mit einer Aktion zur Manipulation von Google Maps für viel mediales Aufsehen. Er war auf einer leeren Straße in Berlin entlang marschiert. Dabei zog er einen Handkarren hinter sich her, der mit 99 aktivierten Smartphones gefüllt war. Der Algorithmus des Google-Kartendienstes interpretierte deren Signale als im Schritttempo fahrende Autos und zeigte Nutzer:innen prompt einen Verkehrsstau an. Weckert dokumentierte das Ganze auch in einem Video. Wie Helen Bielawa, Redakteurin beim Onlinemagazin t3n schreibt, will der Künstler aufzeigen, welchen Einfluss algorithmische Dienste wie Google Maps auf die Gesellschaft haben, indem sie Menschenmengen steuern und Bewegungsprofile prägen können. Denn im Gegensatz zu analogen Karten interagiere die Anwendung des Konzerns mit den Nutzern: Die GPS-Signale fließen in Googles Staukarte ein, die wiederum die Routen der Nutzer beeinflusst.


🔖Erklärbare Künstliche Intelligenz bringt nichts, wenn Menschen die Erklärungen missverstehen

(Why asking an AI to explain itself can make things worse), 29. Januar 2020, MIT Technology Review

Die Entscheidungswege von Algorithmen durch automatisch generierte Erklärungen transparenter zu machen, bringe überhaupt nichts, wenn diese unverständlich sind oder gar zu falschen Schlüssen verleiten. So lautet die Sicht des freien Journalisten Douglas Heaven. Er verweist unter anderem auf eine unter Leitung der Computerwissenschaftlerin Jennifer Wortman Vaughan durchgeführte Studie. Diese zeigt, dass selbst Fachexpert:innen die von erklärbarer Künstliche Intelligenz (KI) generierten visuellen Darstellungen missverstehen. Gleichzeitig wiesen die Proband:innen ein gesteigertes Vertrauen in die Resultate auf, was die Sache noch brisanter mache. Immerhin: Viele derjenigen, die an erklärbarer KI forschen, seien sich einig, dass unterschiedliche Anwender:innen unterschiedlich aufbereitete Erklärungen benötigen und dass diese Personen deshalb frühzeitig in den Schaffungsprozess der KI-Systeme eingebunden werden müssen, so Heaven. In eigener Sache: Zur Nachvollziehbarkeit algorithmischer Systeme haben wir zusammen mit der Stiftung Neue Verantwortung kürzlich ein Arbeitspapier veröffentlicht.


🔖Eine KI, die versteht, was wir Menschen eigentlich wollen – mehr als eine Wunschvorstellung?

(Artificial Intelligence Will Do What We Ask. That’s a Problem.), 30. Januar 2020, Quanta Magazine

Künstlicher Intelligenz (KI) fehlt häufig die Fähigkeit, mögliche negative Konsequenzen der eigenen „Denkprozesse” und daraus resultierenden Entscheidungen zu erfassen. In der Folge lastet enorme Verantwortung auf den Schultern der Computeringenieur:innen, die Algorithmen programmieren und ihre Anreizsysteme festlegen. Womöglich zu viel, wenn bedenkt man, dass wir Menschen uns über eigene Ziele und Motive nicht immer völlig im Klaren sind. Der renommierte Computerwissenschaftler Stuart Russell sowie von seiner Arbeit inspirierte KI-Forscher:innen versuchen, das beschriebene Dilemma aufzulösen, berichtet die Journalistin Natalie Wolchover in diesem ausführlichen Beitrag im Quanta Magazine: KI solle die Fähigkeit vermittelt werden, durch Beobachtung tiefere menschliche Präferenzen zu erlernen und Entscheidungen mit Rücksicht auf selbige zu treffen. Ob das mehr als eine Wunschvorstellung ist, müsse sich angesichts der hohen Ambiguität in unserem Denken sowie der Veränderlichkeit unserer Präferenzen zwar noch herausstellen. Sollte die Methode aber Früchte tragen, könne sie gar dazu führen, dass wir uns selber besser kennen- und verstehen lernen. So zumindest die kühne Zukunftsvision.


🔖Bingo soll jungen Menschen spielerisch Wissen über Künstliche Intelligenz (KI) vermitteln

(Play this bingo game with your kids to teach them about AI), 27. Dezember 2019, MIT Technology Review

Spielerisch lassen sich die Konzepte rund um Künstliche Intelligenz (KI) besonders gut und pädagogisch vermitteln – besonders wenn es Kinder sind, die mit der Materie vertraut gemacht werden sollen. Das dachte sich Blakeley H. Payne, Wissenschaftlerin am Media Lab des Massachusetts Institute of Technology, und entwickelte das „KI Bingo“. Wie Karen Hao, Reporterin bei MIT Technology Review, schreibt, baue das Spiel auf pädagogischer Forschung auf, die belegt, dass sich mit einem solchen Ansatz bei jungen Menschen effektiv das Interesse an technischen- und naturwissenschaftlichen Themen wecken lässt. Das Bingo ist Teil eines von Payne konzipierten Lehrplanes rund um KI und Fragen der Algorithmenethik (siehe Erlesenes #82). Hao liefert neben einer kurzen Erklärung der wichtigsten Begriffe Anleitungen für Kinder und Erwachsene sowie benötigtes Material zum Ausdrucken, sodass dem pädagogischen Spielspaß nichts im Weg steht.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen