Algorithmenethik Erlesenes#3

Willkommen zur dritten Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen „Erlesenes“ (hier abonnieren). 

Der Einfluss von Algorithmen auf den Alltag der Menschen nimmt stetig zu – und das häufig im Verborgenen. Die Konsequenzen für Individuum und Gesellschaft sind ohne Zweifel weitreichend, bislang jedoch nicht ausreichend erforscht.

Wir bieten mit „Erlesenes“ einmal pro Woche eine einordnende Auswahl wichtiger Debattenbeiträge, wissenschaftlicher Ergebnisse und intelligenter Sichtweisen zu Chancen und Herausforderungen algorithmischer Entscheidungsvorgänge. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


🔖 50 Jahre Black Box

23. November 2017, Merkur

Kaum eine zeitgenössische Algorithmenkritik kommt ohne die Erwähnung der sogenannten „Black Box“ aus. Der Begriff steht in diesem Kontext für nicht einmal von Experten nachvollziehbare, intransparente Softwareprozesse. Die deutsche Journalistin und Schriftstellerin Kathrin Passig nutzt diesen umfangreichen Essay, um über ein großes Missverständnis aufzuklären: Die mangelnde Durchschaubarkeit von Softwaresystemen beschäftigt Journalisten und Entwickler schon seit Jahrzehnten, ist also kein Problem, das erst seit Neuestem existiert. Hinsichtlich des konstruktiven Umgangs mit der Intransparenz immer leistungsfähigerer Algorithmen zeigt sich Passig optimistisch.


🔖 Kann Algorithmen beigebracht werden, ihre Arbeitsweise zu erklären?

(Can A.I. be taught to explain itself?) 21. November 2017, The New York Times Magazine

Selbst den Schöpfern fällt es manchmal schwer nachzuvollziehen, warum einige ihrer selbstlernenden Systeme so arbeiten wie sie arbeiten. Nur: Warum müssen Menschen überhaupt ganz alleine versuchen, nachträglich Erklärungen zu finden? Vielleicht kann man das Problem umdrehen und Maschinen konstruieren, die ihr Vorgehen erklären. Diesen Ansatz beschreibt das „New York Times Magazine“ in einem ausführlichen Feature, geschrieben von Cliff Kuang, Produktchef beim Medienhaus Fast Company.


🔖KI-Gehirnimplantat überwacht Gefühlslage von Menschen

(AI-controlled brain implants for mood disorders tested in people) 22. November 2017, Nature

Selbstlernende Software steuert ein Gehirnimplantat. Es schätzt den Gemütszustand ein und versetzt dem Gehirn einen Schock, sobald der Träger oder die Trägerin in eine Phase destruktiven Denkens gleitet. Klingt nach Science-Fiction, wird tatsächlich von der Forschungsbehörde des US-Verteidigungsministeriums DARPA erstmals getestet. Sara Reardon, Autorin beim Wissenschaftsmagazin Nature, berichtet in ihrem Artikel über das Forschungsprojekt, mit dem psychische Störungen behandelt werden sollen. Offensichtliche ethische Fragen drängen sich auf. Denn, wie Reardon anmerkt: Wissenschaftler erhalten durch das Verfahren Echtzeitzugriff auf die Gefühle einzelner Individuen.


🔖Picasso, Matisse oder eine Fälschung? (PDF)

(Picasso, Matisse, or a Fake?) 8. November 2017, Cornell University

Die Einsatzfelder, auf denen Computer menschliche Leistungsfähigkeit überflügeln, steigen ständig. Hier ist der jüngste Zuwachs: das Aufdecken von Fälschungen bei Gemälden. Wissenschaftler der US-amerikanischen Rutgers Universität und vom Atelier for Restauration & Research of Paintings (ARRS) in Den Haag berichten von der Entwicklung eines Verfahrens, bei dem mit maschinellem Lernen der Stil berühmter Künstler analysiert wurde. Die Software konnte anschließend jede Imitation des Stils eindeutig als Fälschung identifizieren. Möchten Sie mehr über den Ansatz erfahren, empfehlen wir diesen detaillierten Forschungsbericht. Alternativ bietet das MIT Technology Review eine Zusammenfassung.


🔖 Die digitale Medienwelt attackiert den freien Willen

(Modern Media Is a DoS Attack on Your Free Will) 21. September 2017, Nautilus

Das Internet und soziale Medien bedrohen die Demokratie – Aussagen dieser Art sind zuletzt häufiger zu hören gewesen. Auch James Williams, Doktorand am Digital Ethics Lab des Oxford Internet Institute, sieht dies so. Im Interview mit dem Wissenschaftsmagazin Nautilus erläutert er, wie Smartphones, Social-Media-Apps und digitale Medien das Denken und Verhalten von Milliarden Menschen beeinflussen. Der Designethiker Tobias Rose-Stockwell befasst sich ebenfalls mit dem Thema. In seinem Essay diskutiert er unter anderem die Rolle, die auf „Engagement“-Maximierung ausgerichtete Algorithmen in dem Prozess spielen. Ein wichtiges Thema, zweifelsfrei. Allerdings sei angemerkt, dass ein knappes Jahrhundert empirischer Wirkungsforschung in der Kommunikationswissenschaft gezeigt hat, dass Reiz-Reaktions-Modelle zwar gut klingen, die Wirklichkeit aber häufig komplexer ist.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier



Kommentare

  1. / von Fritz Ivers

    Zum letzten Punkt ein Hinweis, auch weil der zum Thema dieses Blogs passt. Die Professorin hat sich empirisch mit den Spielmaschinen in Las Vegas beschäftigt, die entlang ihrer Profitabilität immer addiktiver gestaltet wurden. Mehr darüber z.B. hier: The Addiction Algorithm – An interview with Natasha Dow Schüll http://ethnographymatters.net/blog/2015/02/09/the-addiction-algorithm/ Der schwierig zu fassende „Freie Wille“ wird eben keineswegs nur für digitale Geschäftsmodelle genutzt, sondern praktisch überall umgangen, beeinflusst oder regelrecht manipuliert, wo das jemandem vorteilhaft erscheint. Direktwerbung gehört auch zu den Bereichen, wo ständig nach Einflussverstärkung gesucht wurde und wird. Die Kunst liegt in der Subtilität, mit der die Reaktanz (Gegenwehr-Reflexe) vermieden oder aufgehoben wird. Generell muss man allerdings festellen, dass die süß-passive Willenlosigkeit leichter zu erzeugen ist als einen klar gerichteten Willen.

    1. / von chustedt
      zu

      Vielen Dank für den Hinweis!

Kommentar verfassen