Algorithmenethik Erlesenes #57

Diese Woche haben wir wieder eine bunte Mischung aus spannenden Anwendungsfeldern, starken Meinungsbeiträgen und neuen wissenschaftlichen Erkenntnissen zu Algorithmen für Sie zusammengestellt. Wie testet die finnische Regierung eine persönliche Ratgeber-KI für ihre Bürger:innen? Können Algorithmen Preisabsprachen treffen? Was bedarf es, um algorithmische Entscheidungssysteme in den Dienst von Bostoner Schüler:innen zu stellen? Bleiben Sie mit Erlesenes auf dem neusten Stand!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Kann Facebook Suizide verhindern?

18. Februar 2019, WELT

Künstliche Intelligenz (KI) kann dank ihrer Stärke in der Mustererkennung aus Daten zum Verhalten von Nutzer:innen bei sozialen Netzwerken teils sensible Lebenssituationen herauslesen, so zum Beispiel auch einen eventuellen Suizidgedanken. Facebook setzt seit 2017 einen entsprechenden Algorithmus ein, der Beiträge und Kommentare von Anwender:innen nach verdächtigen Hinweisen scannt und gegebenenfalls Alarm schlägt. Mitarbeiter:innen von Facebook würden sich dann mit Hilfsangeboten an die betroffene Person wenden und örtliche Behörden über den Fall informieren. Die ethischen Fragen und möglichen Gefahren dieser Praxis sind weitreichend, wie Norbert Lossau, Wissenschafts-Chefkorrespondent bei der WELT, in diesem Artikel aufzeigt und mit Expert:innenstimmen (u. a. aus einer aktuellen Studie) untermauert. Zwar fokussiert sich Lossau hier nur auf den konkreten Fall bei Facebook, doch die Möglichkeiten, mit Algorithmen private Geheimnisse oder sensible persönliche Probleme zu entlarven, existieren auch für andere Anbieter. So könnten die Informationen u. a. dazu dienen, die psychische Belastbarkeit von Arbeitnehmer:innen zu überprüfen. Weitere Informationen zu den Chancen und Herausforderungen finden sich auch in der Studie „Algorithmen in der digitalen Gesundheitsversorgung“ unserer Kolleg:innen der Bertelsmann Stiftung aus dem Projekt „Der digitale Patient“.


🔖Der beste Algorithmus bringt nichts, wenn er nicht akzeptiert wird

(Defining Equity in Algorithmic Change), 11. Februar 2019, The Regulatory Review

Ein Algorithmus sollte die Schulbusfahrpläne sowie den Beginn des Unterrichts an den öffentlichen Schulen der US-amerikanischen Stadt Boston neu planen mit dem Ziel, effizientere und gerechtere Abfahrts- und Schulzeiten zu gestalten. Doch das Resultat wurde aufgrund empfundener weitreichender Eingriffe in die Tagesabläufe von vielen Bürger:innen abgelehnt – obwohl die Software ihre Zielstellung mit Bravour erfüllte. Was lief schief? Dieser Frage geht Ellen P. Goodman, Rechtsprofessorin an der Rutgers Law School, in dieser Analyse bei The Regulatory Review nach. Sie präsentiert eine Reihe von Antworten, die verdeutlichen, dass selbst der effektivste Algorithmus wenig nützt, wenn diejenigen, die von seinen Beschlüssen betroffen sind, das Gefühl bekommen, hilflos ausgesetzt zu sein. Um gute Ideen, wie in Boston, erfolgreicher umzusetzen, brauche es in Zukunft vor allem die Einbindung der breiten Öffentlichkeit.


🔖Finnische Regierung testet persönliche Ratgeber-KI für ihre Bürger:innen

(Meet Aurora: Finland’s AI assistant aims to give each citizen tailored advice), 7. Februar 2019, ZDNet

Seit September 2018 testet Finnlands Regierung eine auf Künstlicher Intelligenz (KI) basierende Lösung namens „Aurora”, die Bürger:innen maßgeschneidert die für sie relevantesten Dienstleistungen zu verschiedenen Anliegen und Lebenssituationen vorschlägt, etwa zu Umzügen oder zur beruflichen Weiterbildung. Der freie Journalist Richard Robinson erklärt bei ZDNet einige Aspekte des Unterfangens, das sowohl staatliche als auch private Angebote berücksichtigt und nach Angaben seiner Entwickler:innen weitestgehend auf anonymisierte Daten setzt. Das System generiere für alle Nutzer:innen sogenannte „digitale Zwillinge”, deren Anwendungsmuster dann auf Gruppenniveau, losgelöst von den tatsächlichen Identitätsmerkmalen analysiert werden. Die für Anwender:innen relevantesten Angebote tauchen anschließend prominent als Empfehlungen auf. Ende Februar 2019 läuft das Pilotprojekt aus, dann wird ausgewertet. Im Fall eines Erfolgs steht eine Erweiterung der Dienstleistungen und Anwendungsfelder an.


🔖Algorithmische Preiskartelle

(Artificial intelligence, algorithmic pricing, and collusion), 3. Februar 2019, VOX CEPR Policy Portal

Mehr als ein Drittel der Preise von Anbieter:innen auf Amazon könnten 2015 von Algorithmen gesetzt worden sein. Wenn jedoch Algorithmen mit der Preissetzung vertraut sind, sind sie in der Regel auch in der Lage, effektive Absprachen zu treffen. Das fand ein Forscherquartett der University of Bologna in einem Experiment heraus, über das es in diesem Beitrag informiert. Die Wissenschaftler beobachteten, dass bereits simple, auf Künstlicher Intelligenz (KI) basierende Preisalgorithmen in Interaktionen miteinander Preise so abstimmen, dass Effekte wie bei expliziten Preisabsprachen entstehen. Das Wettbewerbsrecht gehe allerdings noch davon aus, dass Preiskartelle stets auf eine förmliche Absprache zurückgehen. KIs, die im Stillen Preiskartelle bilden, ohne irgendwelche Spuren zu hinterlassen, stellen eine große Herausforderung für den Wettbewerb und die entsprechenden Behörden dar, so die Forscher.


🔖Ein Textalgorithmus sorgt für Wirbel – zu Recht?

(OpenAI Trains Language Model, Mass Hysteria Ensues), 17. Februar 2019, Approximately Correct

Rasant verbreitete sich vor einigen Tagen die Meldung zu einem neuen, angeblich besonders effektiven und gar „gefährlichen” Algorithmus zur Generierung von Texten, die wirken, als seien sie von Menschen geschrieben worden. Angemessen ist die Aufregung nach Ansicht von Zachary C. Lipton, Experte für Künstliche Intelligenz (KI) und Assistenzprofessor an der Carnegie Mellon University, nicht. Der von der Initiative OpenAI entwickelte Algorithmus sei ein kleiner Fortschritt, nicht der große Steinwurf. Anders als es von OpenAI und zahlreichen die Geschichte aufgreifenden Medien dargestellt wird, schreibt Lipton in diesem meinungsstarken Beitrag. Angesichts dessen müsse auch kritisch beurteilt werden, dass die Forscher:innen den Code der Software nicht veröffentlichen wollen – mit dem Argument, Missbrauch zu verhindern. Ein derartiges Risiko bestehe zwar, dies gelte aber für den besagten Algorithmus nicht mehr als für andere aus dem Bereich der Computerlinguistik. OpenAI befriedigt vor allem den Hunger von Medien und Öffentlichkeit nach Sensationsgeschichten zur Künstlichen Intelligenz, vermutet Lipton.


🔖In eigener Sache: Per Algorithmus zum Wunschkind?

Auch in der Gendiagnostik und Reproduktionsmedizin haben Algorithmen mittlerweile Einzug gehalten. Manche erhoffen sich nunmehr das Wunschkind per Knopfdruck. Viele Angebote halten aber nicht, was sie versprechen, und werfen dabei ernsthafte ethische Fragen auf, schreibt Dr. Robert Ranisch in unserem neusten Blogbeitrag. Er ist Leiter der Forschungsstelle „Ethik der Genom-Editierung“ am Institut für Ethik und Geschichte der Medizin der Universität Tübingen und Geschäftsführer des Klinischen Ethik-Komitees am Universitätsklinikum Tübingen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen