Algorithmenethik Erlesenes #20

Warum verhalten sich freundliche Menschen in  Soziale Netzwerken unfreundlich? Werden zukünftig Algorithmen über unsere Beförderung entscheiden? Warum rebelliert Chinas Bevölkerung nicht gegen das „Social Scoring“-System ihrer Regierung? Viele Fragen. Und sogar einige Antworten gibt’s bei uns im Erlesenes Newsletter. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten!
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de


🔖Warum freundliche Menschen sich im Netz unfreundlich verhalten

(Why good people turn bad online), 2. April 2108, Mosaic

Obwohl Menschen einen evolutionären Hang zur Kooperationsbereitschaft besitzen, verhalten sie sich in Sozialen Medien ungewöhnlich häufig feindselig gegenüber Fremden. Die Journalistin Gaia Vince wollte wissen, wieso das so ist und welche Gegenmittel es gibt. In diesem Bericht schildert sie, was die Wissenschaft aktuell zu dem Phänomen weiß. Sie beleuchtet die Rolle der Algorithmen von Facebook, Twitter & Co, die aus ökonomischen Gründen auf das Bestärken von emotionalisierenden Beiträgen optimiert sind und somit auch Konflikte und Empörungswellen priorisieren. Besonders interessiert ist Vince an Lösungsansätzen. Ausführlich geht sie auf Experimente ein, die darauf abzielen, Nutzer im Digitalen zum Nettsein zu animieren. Ein Hoffnungsträger hierbei sind unter anderem Bots, die menschliches Verhalten kultivieren, indem sie sich mit gemäßigten Perspektiven in Debatten einbringen. Die Autorin zeigt sich optimistisch, dass der häufig raue Umgang im Netz nur ein Übergangsphänomen ist.


🔖„Predictive Policing“ – Polizei-Software verdächtigt zwei von drei Personen falsch

5. April 2018, SRF

Ist ein Predictive-Policing-Algorithmus praxistauglich, wenn die Software zwei von drei Personen fälschlicherweise verdächtigt? Mit dieser Frage sieht sich die Polizei in einigen Schweizer Kantonen konfrontiert. Dort kommt die aus Deutschland stammende Software „Dynamisches Risiko-Analyse-System“ (Dyrias) zum Einsatz. Sie soll es den Behörden ermöglichen, einschreiten zu können, bevor sogenannte „Gefährder“ zur Gewalt greifen, indem sie die Wahrscheinlichkeit, dass eine Person gewalttätig wird, prognostiziert. Der SRF-Reporter Timo Grossenbacher informiert über die Schwächen des Algorithmus und kritisiert den Mangel an Transparenz und das Fehlen einer unabhängigen Evaluation des Systems. Anhand einer interaktiven Grafik verdeutlicht der Artikel außerdem ein Dilemma, welches jeder Prognosesoftware inhärent ist: Mit einer höheren Sensibilität der Software (auch als richtig positive Prognose bekannt) geht eine niedrigere Spezifität (richtig Negativprognose) einher. Das bedeutet, dass Dyrias zwar Höchstrisikofälle sehr gut erkennen kann, dafür aber in Kauf genommen wird, dass mehr Menschen fälschlicherweise verdächtigt werden.


🔖Künstliche Intelligenz: Auf der falschen Spur

6. April 2018, SZ.de

Die Erkenntnisse von künstlicher Intelligenz (KI) können uns wertvolle Informationen liefern – oder uns dümmer machen. Mit dem letztgenannten Effekt befasst sich die Wissenschaftsjournalistin Eva Wolfangel in diesem Text. Anhand verschiedener fragwürdiger Implementationen von KI zeigt sie auf, wie leicht die „Beobachtungen“ von Algorithmen beim Menschen zu falschen Schlüssen führen.
So erkannte eine KI Lesben und Schwule an sekundären, nicht biologischen Merkmalen, verleitete aber zu dem Schluss, dass der Algorithmus die sexuelle Orientierung anhand der Gesichtsformen erkennen konnte (siehe Algorithmenethik Erlesenes #8). Um Fehlinterpretationen und die Verwechslung von Korrelation und Kausalität zu vermeiden, bedürfe es eines besseren Verständnisses für die Funktionsweise und die Schwächen von KIs, betont Wolfangel.


🔖Wenn Daten den Wert eines Mitarbeiters bestimmen

7. April 2018, Der Tagesspiegel

Durch die Digitalisierung der Arbeitswelt entsteht ein bis dato für Personalverantwortliche nicht verfügbarer Datenschatz, der Beziehungen zwischen Beschäftigten dokumentieren und mitunter eine völlig neue Form der Überwachung schaffen könnte. Dies konstatiert die im Januar veröffentlichte Studie „Die Vermessung der Belegschaft“ der Hans-Böckler-Stiftung. Die Journalistin Marie Rövekamp fasst in ihrem Artikel die Kernthese der Studienautoren Prof. Dr. Heinz-Peter Höller und Prof. Dr. Peter Wedde zusammen. Beispiele für die neue Transparenz der Mitarbeitenden und ihrer Stellung im Unternehmen seien etwa, wie schnell sie ihre E-Mails beantworten oder wie oft sie zu wichtigen Runden eingeladen werden. Verschiedene Softwareprodukte, mit denen Analysen derartiger Aspekte möglich sind, kämen jetzt bereits auf den Markt, so die Autoren. Rechtlich seien hinsichtlich der Auswertung von Daten zwar enge Grenzen gesetzt – aber das Recht müsse auch streng durchgesetzt werden. Die gesamte Studie gibt es hier (PDF). Passend zum Thema empfahlen wir in Algorithmenethik Erlesenes #15 eine Fallstudie zu der Frage, ob Algorithmen Entscheidungen über Beförderungen treffen sollten.


🔖Einblicke in Chinas „Social Credit“-System

(China is implementing a massive plan to rank its citizens, and many of them want in), 3. April 2018, FP

In der chinesischen Stadt Rongcheng halten Autos seit Kurzem an Fußgängerüberwegen an – im Rest des Landes undenkbar. Ursache ist das städtische System zur Bewertung des Verhaltens der Bürger. Es handelt sich um eines von etwa drei Dutzend derzeit in China getesteten „Social Credit“-Systemen – und angeblich um das am besten funktionierende. Die DPA-Chinakorrespondentin Simina Mistreanu gibt in ihrem Vor-Ort-Bericht einen Einblick in die Funktionsweise des Systems und sie schildert, wieso das spezielle Verfahren bei vielen Bürgerinnen und Bürgern gut ankommt: aufgrund Punktabzug ausschließlich für klar definierte Gesetzesverstöße und Vertrauens in den Staat. Gleichzeitig seien die Belohnungen für vorbildliches Verhalten großzügig. Mistreanu liefert eine differenzierte Analyse, die Chinas umstrittene Pläne zur Bewertung und Steuerung der Bevölkerung in einen kulturellen und historischen Kontext einbettet, aber auch die offensichtlichen Schattenseiten hervorhebt. Denn wen der Algorithmus einmal als „nicht vertrauenswürdig“ eingeschätzt hat, der wird es in China künftig richtig schwer haben.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen