Haben wir diese Ausgabe Erlesenes von einer Künstlichen Intelligenz schreiben lassen? Ob das möglich wäre, erfahren Sie wohl erst nach genauer Lektüre! Diese Woche auch dabei: Kann ein Algorithmus helfen, Armut zu bekämpfen? Wie anonym sind anonymisierte Daten wirklich? Und: Wie steht es um die Fairness algorithmischer Systeme? Bleiben Sie neugierig und diskutieren Sie mit – über Twitter @algoethik oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Ein Algorithmus soll helfen, von Armut geplagte Gebiete aus der Luft zu erkennen

(Could machine learning put impoverished communities back on the map?), 7. Oktober 2019, Stanford Engineering

Für viele Regionen in Entwicklungsländern fehlen zuverlässige sozioökonomische Daten – mitunter sei diese Intransparenz von Regierungen sogar gewollt. Doch ein neuer, an der Stanford University entwickelter Algorithmus, über den der freie Journalist Edmund L. Andrews berichtet, soll Abhilfe schaffen: Das Programm könne anhand von Satellitenbildern den Wohlstandsgrad des Gebiets mit hoher Akkuratheit einschätzen. Das KI-Modell sei mit Aufnahmen aus datentechnisch gut erschlossenen Regionen trainiert worden und erkenne gelernte Muster – etwa Farben und Formen, die mit wohlhabenden Gegenden oder Zugang zu fließendem Wasser korrelieren. Der Algorithmus selbst verstehe nicht, was er da eigentlich sieht, aber die Korrelationen seien treffend, wird der für die Studie verantwortliche Forscher Stefano Ermon im Artikel zitiert. Mit dem Ansatz an sich könnten die Probleme in von Armut geplagten Gebieten freilich nicht behoben werden, aber er eigne sich als Anfang für weitere Unterstützungsarbeit.


🔖Könnte Künstliche Intelligenz für den New Yorker schreiben?

(The next Word. Where will predictive text take us?), 14. Oktober 2019, The New Yorker

Computerlinguistische Algorithmen sind mittlerweile beeindruckend gut. Wie gut genau, dies erforscht und zeigt der Buchautor und Journalist John Seabrook in diesem umfangreichen Essay im Magazin The New Yorker. Er befasst sich darin nicht nur mit den wegbereitenden Akteur:innen an der Schnittstelle von Computerlinguistik und Künstlicher Intelligenz, sondern auch mit der Entstehung von Sprache im menschlichen Gehirn sowie mit existenziellen Fragen: Wenn sich Software anhand eines Datensatzes nicht nur innerhalb kürzester Zeit sämtliche Schreib- und Grammatikregeln beibringen, sondern mit einer gewissen statistischen Gewissheit sogar vorhersehen kann, was ein Mensch als Nächstes „tippen“ wird: Welche Rolle nimmt dann künftig der Mensch ein? Und wie verträgt sich das mit dem Selbstwertgefühl derjenigen, die jahrzehntelang an ihren linguistischen Fähigkeiten gefeilt haben?


🔖Warum anonymisierte Daten die Anonymität nicht wirklich schützen

(You’re very easy to track down, even when your data has been anonymized), 23. Juli 2019, MIT Technology Review

Behörden und Unternehmen, die mit Personeninformationen enthaltenden Datensätzen arbeiten, entfernen häufig eindeutig identifizierbare Merkmale wie Namen, Telefonnummern oder E-Mail-Adressen. Die Datenschutz-Grundverordnung (DSGVO) setzt der Verwendung personenbezogener Daten zudem einen Riegel vor. Doch wie Charlotte Jee, Reporterin bei MIT Technology Review, informiert, ist dieses Verfahren nicht sonderlich solide. Wissenschaftler:innen des Imperial College London und der belgischen Universität Leuven hätten gezeigt, dass schon drei demografische Merkmale – etwa Postleitzahl, Geschlecht und Geburtsdatum – genügen, um in bis zu 81 Prozent der Fälle eine Person in einer anonymisierten Datenbank zu identifizieren. Gängige Praktiken zum Schutz von Personenangaben lägen mittlerweile weit hinter den Möglichkeiten zum „Knacken“ anonymisierter Datensätze zurück, so Yves-Alexandre de Montjoye, einer der Studienautoren. Allerdings gebe es Hoffnung, schreibt Jee: Neuartige mathemathische Modelle seien effektiver darin, bestimmte Daten zugänglich zu machen und gleichzeitig die Personen dahinter zu schützen.


🔖Faire Künstliche Intelligenz (KI) muss kausale Zusammenhänge erkennen können

(What if Algorithms Could be Fair?), Juli 2019, Human Readable Magazine

Für Menschen und gesellschaftliche Prozesse hat Fairness eine hohe Bedeutung. Seit dem Durchbruch von KI stellt sich daher immer häufiger die Frage: Kann Maschinen beigebracht werden, sich fair zu verhalten (siehe Erlesenes #31)? Die KI-Forscher:innen Laura Summers und Andy Kitchen beleuchten im Human Readable Magazine eine konkrete Methode für potenziell faire KI: sogenannte “kontrafaktische Fairness”: Wie sie mit Bezug auf eine Arbeit von Wissenschaftler:innen des Alan Turing Institute erörtern, handelt es sich um eine Methode, die über die Suche nach statistischen Korrelationen hinausgeht und stattdessen versucht, kausale Zusammenhänge zu erkennen. Etwa: Würde eine beliebige Entscheidung anders ausfallen, wenn man ein geschütztes Merkmal (z. B. Geschlecht) austauscht, aber alle anderen Attribute (z. B. Qualifikation) beibehält? Algorithmische Modelle auf Basis dieses beschriebenen Prinzips seien in der Lage, eine solche Frage zu beantworten, und ihre Implikationen für Beschlüsse zu berücksichtigen.


🔖Uneinigkeit über die beste Antwort auf algorithmische Diskriminierung

(Woke AI Won’t Save Us), 3. August 2019, Logic

Das Bewusstsein über mögliche diskriminierende Konsequenzen des Einsatzes von Algorithmen ist in den letzten Jahren deutlich gewachsen. Als Folge entstehen derzeit zwei Lager mit diametral entgegengesetzten Positionen, konstatiert der freie Journalist Ali Breland im Onlinemagazin Logic. Auf der einen Seite befänden sich diejenigen, die glauben, Vorurteile und Diskriminierung seitens Künstlicher Intelligenz (KI) auf technischem Wege beheben zu können. Vertreter:innen des anderen Lagers dagegen forderten das Verbot des Einsatzes von KI in kritischen Bereichen. Ihrer Ansicht nach seien diskriminierende gesellschaftliche Strukturen das Kernproblem und könnten nicht aus der KI „bereinigt“ werden. Breland ergreift in seinem Beitrag deutlich Partei für letztgenannte Position. Es lässt sich allerdings argumentieren, dass wir es nicht, wie von ihm skizziert, mit einer absoluten Dichotomie zu tun haben. Denn man kann durchaus – mit Sorgfalt – sowohl Algorithmen einsetzen als auch gleichermaßen gegen diskriminierende Strukturen kämpfen. In jedem Fall aber sollte man das von Breland beschriebene Spannungsfeld im Blick behalten.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren