Algorithmenethik Erlesenes #65

Ein langes Wochenende steht vor der Tür und wir haben statt buntbemalter Ostereier wieder vielfältige Beiträge rund um Algorithmen und Künstliche Intelligenz (KI) im Erlesenes-Newsletter versteckt. Wussten Sie beispielsweise schon, wieso KI-Entwickler:innen an Hundetrainings teilnehmen? Oder wie man Tweets von Barack Obama mit einem Algorithmus vorhersagen kann? Antworten gibt es wie immer in der dieswöchigen Ausgabe!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Wie Algorithmen vorhersagen, was Sie als nächstes schreiben werden

(How Algorithms Know What You’ll Type Next), April 2019, The Pudding

Viele Smartphones besitzen eine Funktion, die Anwender:innen beim Tippen Textvorschläge macht. Wie arbeiten derartige Algorithmen eigentlich? Die zwei KI-Experten Antal van den Bosch und Wessel Stoop liefern in diesem interaktiven Beitrag eine anschauliche Erklärung. Dafür analysieren sie Twitter-Nachrichten verschiedener Prominenter (u. a. von Barack Obama) und vergleichen sie mit Textprognosen eines gängigen Algorithmus. Dieser folgt einem eigentlich sehr simplen Prinzip: Er vergleicht gerade getippte Wörter mit dem Datensatz aller vergangenen Eingaben und generiert davon ausgehend statistische Prognosen. Was macht man, wenn zu einer Person kein Datensatz mit einem Sprachmodell vorliegt? Selbst dann ließe sich theoretisch eine (allerdings qualitativ schlechtere) Vorhersage generieren, zum Beispiel durch Verwendung eines Sprachmodells einer charakteristisch ähnlichen Person. Das Duo zeigt auch, was definitiv nicht gut funktioniert: einen Tweet von Barack Obama mit dem Sprachmodell von Kim Kardashian vorhersagen zu wollen.


🔖Unerwartete Hindernisse bei der Prüfung algorithmischer Systeme in der Verwaltung

(New York City wants to make sure the AI and algorithms it uses aren’t biased. That’s harder than it sounds.), 11. April 2019, Recode

Vor zwei Jahren beschloss die Stadtverwaltung von New York City die Bildung einer Arbeitsgruppe, um den Einsatz von Algorithmen in der öffentlichen Verwaltung und ihre Konsequenzen zu prüfen. Doch die damals viel gelobte Initiative stößt während ihrer laufenden Tätigkeit auf unerwartete Hindernisse, wie Shirin Ghaffary, Reporterin bei Recode, berichtet: So seien die Mitglieder:innen bislang daran gescheitert, eine Liste aller von der Verwaltung verwendeten Prozesse algorithmischer Entscheidungsfindungen (Automated Decision-Making; ADM) zusammenzustellen – unter anderem, weil bestimmte Systeme proprietär seien oder der Aufwand zu groß wäre. Unklar sei auch, was eigentlich alles als ADM in der Verwaltung gelte. Einige sähen gar Excel-Tabellen als Teil der zu untersuchten Verfahren an. Die von Ghaffary geschilderten Probleme könnten zur Folge haben, dass die Arbeitsgruppe am Ende lediglich zu generellen Empfehlungen in der Lage wäre –  womit sie weit hinter den Erwartungen zurückbliebe.


🔖Wieso KI-Entwickler:innen am Hundetraining teilnehmen?

(The Class Every Reinforcement Learning Researcher Should Take), 12. April 2019, Towards Data Science

Wer Technologien für Künstliche Intelligenz (KI) entwickelt, kann sich Inspiration nicht nur beim menschlichen Gehirn holen, sondern auch bei Tieren, schreibt der Google-Forscher Vincent Vanhoucke. Aus diesem Grund nahmen er und sein Team an einem Hundetraining teil. In diesem Beitrag berichtet er über einige Erkenntnisse. Die Parallelen zwischen maschinellem Lernen und dem Lernen von Hunden seien offensichtlich: ein begrenzter Kanal zur Kommunikation von Belohnungen, komplexe und mehrdeutige Signale, ein fähiger, aber teils undurchsichtiger Lerner, der leicht abgelenkt wird – und eine Lehrperson auf der Suche nach der effektivsten Strategie. Vanhoucke reflektiert in seinem Text über seine Beobachtungen dazu, wie sich positive Belohnungen, “negative Belohnungen” sowie eine Unberechenbarkeit des Erscheinens einer Belohnung auf die Lernbereitschaft und -geschwindigkeit der Tiere auswirken. Es sei nicht auszuschließen, dass es weitere Zusammenkünfte der KI-Entwickler:innen und Vierbeiner geben werde.


🔖In Chinas Schulen sollen Gesichtserkennung und Algorithmen bessere Leistungen bringen

(Camera Above the Classroom), 26. März 2019, Sixth Tone

Eine kuppelförmige Kamera, die über der Tafel positioniert ist und die Personen im Klassenraum im Blick hat: So sieht die neue Realität in einigen chinesischen Schulen aus, die mit Gesichtserkennungstechnologie und algorithmischer Verhaltensanalyse Schüler:innen zu besseren Leistungen bringen will. Xue Yujie, Reporterin beim auf China spezialisierten Onlinemagazin Sixth Tone, berichtet in diesem ausführlichen Beitrag über die Hoffnungen der Befürworter:innen, über die Firmen hinter der eingesetzten Technologie sowie über die ablehnende Haltung vieler Schüler:innen. Diese stören sich nicht nur an der orwellschen Form der Überwachung, sondern auch daran, dass sie oft über die genaue Aufgabe der Kameras im Dunkeln gelassen werden. Auch bei Lehrpersonen sowie Expert:innen gebe es Zweifel sowohl an der Effektivität der Maßnahme als auch am Fehlen von sorgfältig erarbeiteter Regulierung für den Einsatz der Technologie in Schulen, so Yujie.


🔖Versicherungen wollen Künstliche Intelligenz einsetzen, aber ist das im Interesse der Kund:innen?

(Insurers Want to Know How Many Steps You Took Today), 10. April 2019, New York Times

Versicherungsunternehmen öffnen sich für die neuen Möglichkeiten, die ihnen Künstliche Intelligenz (KI) bietet – und das sei nicht unbedingt im Sinne der Kund:innen, schreibt Sarah Jeong, Journalistin bei der New York Times. Smartphones, Fitness-Tracker und Software, die Social-Media-Profile durchsucht, bieten Versicherungen einen bislang nicht dagewesenen Datenschatz. Die Versuchung, personalisierte Preise und Rabatte für “korrektes” Verhalten einzuführen, sei enorm. Groß seien aber auch die Risiken. Dazu gehören laut Jeong unter anderem Schwierigkeiten, algorithmische Diskriminierung zu beweisen, da sich die Versicherungen in Bezug auf ihre proprietäre Technologie gerne verschlossen geben. Es existiere außerdem die Gefahr der beiläufigen algorithmischen Identifizierung geschützter persönlicher Merkmale, wie etwa das Vorliegen einer Erbkrankheit. Aufgrund der Sensibilität des Themas plädiert die Autorin meinungsstark dafür, dass KI bei Versicherungen lieber in der Schubladen bleiben sollte.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen