Algorithmenethik Erlesenes #93

Liebe, Macht, Verrat: Shakespeares Werk kennt nicht wenige Beispiele für diese Trias. Nun ist der große Lyriker selbst verraten worden – von einem Algorithmus. Außerdem in der dieswöchigen Ausgabe von Erlesenes: Gibt es zwei Wellen in der Diskussion um Algorithmenethik? Wem schaden überzogenen Erwartungen an Künstliche Intelligenz? Diskutieren Sie mit – auf Twitter (@algoethik) oder über unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Von überzogenen Erwartungen an Künstliche Intelligenz

(An Epidemic of AI Misinformation), 30. November 2019, The Gradient

Zuweilen tendieren Medien und Forschungseinrichtungen dazu, Meldungen zu potenziellen Fortschritten im Bereich Künstlicher Intelligenz (KI) aufzublasen und teils überzogene Erwartungen zu wecken. Das schreibt der für seinen kritischen Blick auf das Forschungsfeld bekannte US-amerikanische Professor Gary Marcus in diesem Essay. Er belegt seine Behauptung mit einer Reihe historischer und aktueller Beispiele irreführender Berichterstattung (Schlagzeilen zum vermeintlich autonomen Fahren gehören dazu, wie der Journalist Torsten Kleinz bei uns im Blog erläuterte). Zumindest teilweise liege die Ursache auch bei den Forscher:innen. Bisweilen würden diese selbst „zu dick auftragen“, wenn es um Implikationen ihrer Arbeit geht. Häufiger jedoch ließen sie zumindest Gelegenheiten verstreichen, fehlerhafte öffentliche Interpretationen ihrer Studien zu berichtigen. Marcus befürchtet, dass viele der geschürten Erwartungen zu KI nicht schnell genug eingelöst werden können, woraufhin ein neuer „KI-Winter” drohe. Dieser wäre ein Rückschlag für die gesamte Disziplin.


🔖Mit Big Data kommt Big Responsibility

27. November 2019, Republik

Softwareanbieter sollten verpflichtet werden, Konsument:innen im Zuge einer algorithmisch getroffenen Entscheidung (etwa bei Ablehnung eines Kredits), eine Erklärung zu liefern, in welchem Szenario der Beschluss anders ausgefallen wäre. Das sagt Sandra Wachter, Forscherin am Oxford Internet Institute. In einem ausführlichen Interview mit Adrienne Fichter, Redakteurin beim Onlinemagazin Republik, spricht sie über Ansätze, um das Recht auf Identität und Privatsphäre auch bei algorithmischen Endscheidungsprozessen zu schützen. Neben dem in ihrem Beitrag eingangs beschriebenen Prinzip der „Counterfactual explanations” diskutiert Wachter auch das von ihr entwickelte Konzept des „Right of reasonable inferences”. Zentral dabei sei der Gedanke, dass nicht jede denkbare Datenquelle genutzt werden sollte, um daraus Rückschlüsse zu ziehen. Man müsse individuell in Bezug auf ihren jeweiligen Zweck evaluieren, inwieweit ihr Einsatz tatsächlich angemessen ist. „Mit Big Data kommt big responsibility” formuliert die Wissenschaftlerin prägnant. Wachter erörtert auch, warum die Datenschutz-Grundverordnung (DSGVO) keine ausreichende Regulierung für den Umgang mit Algorithmen darstellt.


🔖Die zwei Wellen der Algorithmenethik

(The Second Wave of Algorithmic Accountability), 25. November 2019, Law and Political Economy

Angesichts des wachsenden Bewusstseins für Herausforderungen und Möglichkeiten algorithmischer Entscheidungsprozesse sowie der sich daraus ergebenden vielschichtigen Initiativen, Ideen und politischen Vorschläge ist es ratsam, auch die Gesamtdiskussion unter die Lupe zu nehmen . Frank Pasquale, Jura-Professor an der Universität Maryland, schildert in diesem Meinungsbeitrag seine Beobachtung der Ausbildung zweier separater „Wellen”, was die Diskussion rund um algorithmische Rechenschaftspflicht und Ethik angeht. Die erste Welle konzentriere sich auf die existierenden Systeme an sich und darauf, diese fairer zu machen und besser in Einklang mit ihren erklärten Zielen zu bringen. Die zweite Welle lege dagegen das Augenmerk stärker auf grundsätzliche strukturelle, politische und regulatorische Aspekte. Zu ihr gehöre es auch, die Existenz spezifischer algorithmischer Systeme generell infrage zu stellen. Nach Ansicht von Pasquale sind beide Wellen derzeit weitgehend komplementär, da beide das gleiche Ziel verfolgen. Zum Thema siehe auch Erlesenes #86 („Uneinigkeit über die beste Antwort auf algorithmische Diskriminierung“).


🔖Künstliche Intelligenz enttarnt Shakespeare

(Machine learning has revealed exactly how much of a Shakespeare play was written by someone else), 22. November, Emerging Technology from the arXiv

Fast die Hälfte der Textpassagen in William Shakespeares Historiendrama Heinrich VIII wurde nicht von dem berühmten Lyriker zu Papier gebracht, sondern von seinem Dramatiker-Kollegen John Fletcher. Zu diesem Schluss kommt ein Algorithmus des Literaturwissenschaftlers und Linguistikers Petr Plecháč von der Tschechischen Akademie der Wissenschaften in Prag, wie im „Physics arXiv“-Blog nachzulesen ist. Dass Shakespeare und Fletcher das Werk gemeinsam verfasst haben, war bereits bekannt. Erst die von Plecháč durchgeführte Studie mittels maschinellen Lernens liefere nun jedoch granulare Erkenntnisse zur Dimension und Vorgehensweise der Zusammenarbeit. Der Algorithmus zeige unter anderem auf, dass das Duo sogar einzelne Abschnitte ein und derselben Szene zusammen zu Papier gebracht hat. Außerdem dürfte er Spekulationen über einen weiteren möglichen Koautor beenden: Eine kolportierte Mitarbeit des Dramatikers Philip Massinger an Heinrich VIII sei unwahrscheinlich. Eine deutschsprachige Zusammenfassung der Studie gibt es bei Spektrum.de.


🔖Mal sehen, was der Computer sagt

30.11.2019, netzpolitik.org

Dass der österreichische Arbeitsmarktservice (AMS) einen Algorithmus einsetzen darf, um die Arbeitsmarktchancen von Arbeitssuchenden zu bewerten, ist beschlossene Sache (siehe Erlesenes #83). Noch lange nicht abgeschlossen sind dagegen die politischen Auseinandersetzungen rund um das System, wie Chris Köver, Redakteurin bei netzpolitik.org, im Begleittext zu einem aktuellen Podcast schreibt. Offen blieben bislang etwa die Fragen, wie Mitarbeiter:innen erkennen sollen, ob das System daneben liegt, und ob ein Algorithmus überhaupt fair sein könne, wenn offen dokumentiert ist, dass Faktoren wie Alter, Geschlecht, Kinder, Behinderungen oder Nationalität explizit in die Bewertung mit einfließen. Im netzpolitik.org-Podcast spricht Köver dazu mit der Mathematikerin Paola Lopez, einer Kritikerin des Einsatzes dieses Systems. AMS-Vorstandsdirektor Johannes Kopf nahm bereits im September 2019 Stellung zu einigen der kritischen Bemerkungen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen