Algorithmenethik Erlesenes #14

Willkommen zur vierzehnten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Um diesen Anspruch weiterhin zu erfüllen und den Newsletter stetig weiterzuentwickeln, möchten wir Sie nochmals bitten, an unserer Umfrage teilzunehmen. Die Umfrage besteht aus 7 kurzen Fragen und sollte nicht allzu viel Ihrer Zeit in Anspruch nehmen.

Selbstverständlich können Sie „Erlesenes“ weiterempfehlen und an interessierte Menschen weiterleiten. Wir würden uns freuen.

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖Autonome Autos: Forscher führen Bilderkennung mit manipulierten Schildern in die Irre

20. Februar 2018, heise online

Für den Menschen sieht es aus wie ein Tempo-80-Zeichen, doch die Bilderkennungssoftware erkennt ein Stoppschild: Selbstfahrende Autos können durch manipulierte Verkehrsschilder böswillig in die Irre geführt werden. Das haben Forscher der Universitäten Princeton und Purdue herausgefunden. Sie modifizierten Schilder mithilfe eines Musters aus anscheinend unverdächtigen Flecken so, dass sie vom Objekterkennungsalgorithmus des Fahrzeugs missverstanden wurden. Beim fälschlich in der 80er-Zone erkannten Stoppschild könnte ein plötzliches Abbremsen des Autos gefährlich werden. Andreas Wilkens, Reporter bei heise online, berichtet über die neue Methode, die dem wachsenden Einsatzgebiet sogenannter “Adversarial Attacks” zuzurechnen ist (siehe auch Algorithmenethik Erlesenes #1, Algorithmenethik Erlesenes #7 und Algorithmenethik Erlesenes #8). Das gesamte Papier zur aktuellen Arbeit gibt es hier als PDF.


🔖Forscher warnen vor großen und neuartigen Risiken durch KI

21. Februar 2018, inside-it.ch

26 Experten verschiedener Organisationen aus dem Bereich der Forschung zu sogenannter „künstlicher Intelligenz“ (KI) warnen im jüngst veröffentlichten Bericht „The Malicious Use of Artificial Intelligence“ vor dem Einsatz von KI für missbräuchliche Zwecke. Die Wissenschaftler und Vertreter renommierter Nichtregierungsorganisationen wie der Electronic Frontier Foundation gliedern ihre Analyse in die drei Bereiche „digitale Sicherheit”, „physische Sicherheit” und „politische Sicherheit”. Sie beleuchten denkbare Szenarien wie das automatische Auffinden von Schwachstellen in Programmiercode oder den Einsatz von Drohnenschwärmen und Gesichtserkennung für Attentate. Außerdem definieren sie vier übergeordnete Empfehlungen für Maßnahmen, die ihrer Ansicht nach angemessene Reaktionen auf die Bedrohungslage darstellen. Marcel Gamma fasst die Kernpunkte des Berichts bei inside-it.ch zusammen. Das gesamte Dokument steht hier als PDF zum Download bereit.


🔖“Trending” muss verschwinden

(It’s Time to End “Trending”), 21 Februar 2018, New York Magazine

Was bedeutet es, wenn Inhalte bei den großen Social-Media-Plattformen Facebook, YouTube und Twitter in der “Trending”-Sektion erscheinen beziehungsweise das entsprechende Label erhalten? Niemand außer den drei Anbietern selbst kann diese Frage wirklich beantworten, moniert der Technologiereporter Brain Feldman in diesem Kommentar. Klar ist, dass als “Trending” angepriesene Empfehlungen eine größere Reichweite erhalten, wodurch ein sich selbst verstärkender Kreislauf entsteht. Findige Extremisten und profitorientierte Klickoptimierer nutzen dies gekonnt aus. Gerade bei polarisierenden Nachrichtenereignissen wie dem Highschoolamoklauf in Parkland erhalten oft äußerst fragwürdige oder schlicht faktisch falsche Inhalte eine große Bühne, aufgewertet durch die scheinbare Autorität des intransparenten Trendingalgorithmus. YouTube sah sich zuletzt wiederholt mit Kritik zu seinen Empfehlungsalgorithmen konfrontiert (siehe Algorithmenethik Erlesenes #1 und Algorithmenethik Erlesenes #11). Was Trending angeht, gibt es zumindest nach Ansicht von Brain Feldman nur eine Lösung: Die Plattformen müssen das Merkmal komplett abschaffen.


🔖Ausprobieren: Wie gut imitieren Computer menschliche Stimmen?

(Voice Cloning Experiment), 14. Februar 2018, Github

Etwas zum Ausprobieren und Anhören: Wie viele Beispiele braucht Software, um eine Stimme glaubhaft zu imitieren? Das wollten Forscher des chinesischen Technologiekonzerns Baidu herausfinden. Sie entwickelten ein System, das mithilfe eines neuronalen Netzwerks Computerstimmen generiert. Die Resultate ihrer Arbeit können auf dieser Seite angehört werden. Es zeigt sich, dass 100 Beispiele mit kurzen gesprochenen Sätzen einer Person genügen, um mitunter erstaunlich ähnliche Computerstimmen zu produzieren. Dass sie trotzdem noch etwas mechanisch und blechern klingen, mag beruhigen. Aber wie lange noch, bis dieser Makel nicht mehr zutrifft? Das Papier zum Verfahren als PDF finden Sie hier.


🔖Ein Rahmenwerk für den Einsatz von Algorithmen im öffentlichen Sektor

(Algorithmic Impact Assessments: Toward Accountable Automation in Public Agencies), 22. Februar 2018, AI Now Institute

Wenn staatliche Einrichtungen algorithmische Entscheidungsprozesse einsetzen, sind einige Grundregeln erforderlich, um Diskriminierung sowie andere unerwünschte Nebeneffekte zu verhindern. Die Initiative “AI Now Institute” der New York University präsentiert in diesem Text ein aus vier Zielen bestehendes Rahmenwerk, anhand dessen sich Algorithmen im öffentlichen Sektor messen lassen sollen. Inspiration holten sich die KI-Aktivisten unter anderem von der neuen EU-Datenschutz-Grundverordnung (EU-DSGVO). Zu ihren vorgeschlagenen Eckpfeilern gehört eine Möglichkeit für die Öffentlichkeit, sich über die im Einsatz befindlichen Algorithmen zu informieren. Zudem halten sie die Zugänglichkeit der Systeme für externe Forscher und Prüfer für notwendig. Das Rahmenwerk strebt außerdem eine Erhöhung des KI-Know-hows innerhalb der öffentlichen Hand an und beschreibt die Notwendigkeit von Instrumenten, mit denen Bürgerinnen und Bürgern auf algorithmische Entscheidungen reagieren oder deren Qualität und Akkuratheit anfechten können.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen