Algorithmenethik Erlesenes #62

Worüber streiten sich zwei KI-Forscher? Sollten wir uns mindestens einmal am Tag gegen eine Algorithmus-Empfehlung entscheiden? Was sollten Forscher:innen bei Studien zu den Sozialen Medien bedenken? Antworten auf diese und andere Fragen finden sich auch diese Woche im „Erlesenes“-Newsletter.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Eine Erkenntnis aus 70 Jahren KI-Forschung

(A Better Lesson), 19. März 2019, rodneybrooks.com

Künstliche Intelligenz (KI) auf der Basis von strukturiertem menschlichem Wissen zu einem Anwendungsbereich zu entwickeln, sei klüger und nachhaltiger, als Algorithmen unter Verwendung massiver Rechenkapazitäten zu eigener Lernleistung zu befähigen. Diese Position vertritt der Informatiker und Kognitionswissenschaftler Rodney Brooks. Er widerspricht damit einer These seines Branchenkollegen Richard S. Sutton, die dieser einige Tage zuvor in einem Blogbeitrag publizierte. Laut Sutton zeigt die Erfahrung der letzten 70 Jahre KI-Forschung, dass Algorithmen, die eigenmächtig Know-how “entdecken”, Erfolg versprechender und effektiver sind als ein Ansatz, bei dem KI mit von Menschen vorgefertigten Modellen gefüttert wird. Brooks führt in seiner Replik eine ganze Reihe von Argumenten gegen Suttons Standpunkt auf, darunter, dass die von ihm favorisierte rechenintensive KI-Philosophie viele Akteure ausschließe und auch ökologisch wenig vertretbar sei. Wir verweisen an dieser Stelle gerne auf einen Beitrag von Rodney Brooks über die Ursprünge Künstlicher Intelligenz in unserem Blog.


🔖Können Menschen wie Künstliche Intelligenz denken?

(Humans can decipher adversarial images), 22. März 2019, Nature

Künstliche Intelligenz „denkt” auf eine abstrakte Art, die dem Menschen völlig fremd ist – so lautet eine gängige Annahme. Doch stimmt das? Die Forscher Zhenglong Zhou und Chaz Firestone der US-amerikanischen Johns Hopkins University zeigen mit acht in dieser Studie beschriebenen Experimenten, dass Mensch und KI zumindest beim Thema Bilderkennung durchaus ähnlich räsonieren. Unter anderem konfrontierte das Duo Probanden und KI mit von einem Algorithmus generierten Bildern und ließ sie aus 48 Labels die Beschreibung wählen, die am ehesten passt. Bei 90 Prozent der Testpersonen fanden die Wissenschaftler einen Übereinstimmungsgrad mit der KI, der Zufall ausschließt. Bei 81 Prozent der Bilder dachten Mensch und Maschine ähnlich genug, dass es sich um mehr als einen Zufall handeln musste. Die Erkenntnisse der Arbeit könnten unter anderem bei der Entwicklung von Abwehrmaßnahmen gegen gezieltes Verwirren von KI durch manipulierte Bilder helfen – sogenannte “Adversarial Attacks” (siehe Erlesenes #14).


🔖 Tue jeden Tag etwas, was Dir kein Algorithmus jemals vorgeschlagen hätte

(Do one thing every day that an algorithm didn’t choose for you), 20. März 2019, Medium

Algorithmen von Onlinediensten helfen uns bei der täglichen Entdeckung von Informationen, Produkten, zu unseren Präferenzen passenden Medieninhalten oder Personen mit ähnlichen Interessen – aber sie kategorisieren uns auch und animieren uns, weniger selbst zu denken, schreibt der Kreativitätsexperte und Buchautor David Kadavy in diesem kurzen Beitrag. Um zumindest ab und an aus dem algorithmischen Raster auszubrechen, hat er einen konkreten Vorschlag an seine Leser:innen: Sie sollen einmal täglich etwas tun, das nicht von einem Algorithmus für sie ausgewählt wurde. Kadavy liefert auch gleich noch einen Wunsch an die Tech-Plattformen: Er würde die Einführung einer “Anti-Algorithmus-Sektion” begrüßen, etwa bei Twitter: “Menschen, denen Sie vermutlich nicht folgen wollen”, oder bei Facebook: “Nachrichten, die Sie vermutlich nicht sehen wollen”.


🔖Künstliche Intelligenz: Firmen einigen sich auf ethische Grundwerte

24. März 2019, heise online

Der KI Bundesverband e.V., ein Zusammenschluss aus mehr als 160 Unternehmen, kleinen und mittleren Unternehmen (KMUs), Startups und Expert:innen, hat ein Gütesiegel für Künstliche Intelligenz (KI) vorgestellt (PDF), über das heise online informiert. Das Siegel basiert auf den vier Gütekriterien Ethik, Unvoreingenommenheit, Transparenz sowie Sicherheit und Datenschutz, die im Dokument des Verbands jeweils kurz erläutert werden. Unternehmen, die das Siegel nutzen wollen, verpflichten sich, die Kriterien zu berücksichtigen und anzuwenden sowie bei der Entwicklung und Anwendung von Künstlicher Intelligenz das Interesse der Menschen ins Zentrum zu stellen. Auch die Bertelsmann Stiftung beschäftigt sich mit der Gestaltung algorithmischer Systeme. Mit den von uns und iRights.Lab veröffentlichten Algo.Rules haben wir in einem breiten Beteiligungsprozess dafür Regeln entwickelt, die sich ähnlich dem Gütesiegel der Aufgabe stellen, ethische Standards im Programmiercode zu verankern.


🔖Studien in Sozialen Netzwerken: Was KI-Forscher:innen bedenken sollten 

(Scientists Like Me Are Studying Your Tweets—Are You OK With That?), 19. März 2019, How We Get To Next

Wissenschaftler:innen greifen für Forschung vermehrt auf von Nutzer:innen bei Onlineplattformen veröffentlichte persönliche Inhalte zu (siehe Erlesenes #61 “Das ‘schmutzige Geheimnis’ der Trainingsdatensätze für Gesichtserkennung”). Doch auch wenn Tweets oder Profile auf Datingportalen technisch gesehen “öffentlich” sind, resultiert daraus nicht automatisch ein Einverständnis zur Verwendung, mahnt die Wissenschaftlerin Casey Fiesler, die derzeit an einem Projekt für ethische Richtlinien zur Durchführung von Studien in sozialen Medien beteiligt ist. Gerade bei Forschung zu Künstlicher Intelligenz (KI) entstünden knifflige Szenarien – zum Beispiel wenn persönliche oder intime Details aus Tweets oder YouTube-Videos von Algorithmen verarbeitet und für Zwecke genutzt werden, die überhaupt nicht den Interessen der Urheber:innen entsprechen (wie etwa der Versuch einer algorithmischen Prognose sexueller Präferenzen anhand von Datingprofilen). Fiesler ruft ihre Kolleg:innen dazu auf, stets den Kontext zu berücksichtigen und genau abzuwägen, bevor sie “öffentliche” Daten von Menschen ohne deren Einverständnis in ihre Arbeit einbeziehen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen