Algorithmenethik Erlesenes #69

Nach einer kleinen Urlaubspause haben wir diese Woche wieder neue und erkenntnisreiche Beiträge zur Algorithmenethik im Erlesenes-Newsletter kuratiert. Wussten Sie beispielsweise schon, wie Werbeanbieter künftig bei datenschutzrechtlichen Vergehen zur Rechenschaft gezogen werden könnten? Oder warum Algorithmen die Welt manchmal mit ganz anderen Augen sehen? Lesen Sie darüber in dieser Ausgabe und bleiben Sie informiert!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Wie Werbealgorithmen durch Profiling den Datenschutz umgehen

(Affinity Profiling and Discrimination by Association in Online Behavioural Advertising), 15. Mai 2019, SSRN

Gängige Onlinewerbesysteme sind in der Lage, Richtlinien zur Vermeidung von Diskriminierung zu umgehen. Dafür ordnen sie Nutzer:innen ausgehend von ihren Verhaltensdaten spezifische Interessen zu, die mit vermuteten Interessen oder Bedürfnissen geschützter Gruppen übereinstimmen (etwa Geschlecht, Ethnie oder Religion). Durch das Profiling können darauf  basierend Anzeigen gezielter platziert werden. Sandra Wachter, Professorin und Forscherin am Oxford Internet Institute, beleuchtet diese Problematik in einem ausführlichen wissenschaftlichen Papier (kostenlose Registrierung notwendig). Die Praxis der Werbeanbieter unterlaufe Aspekte des Datenschutzes, der Gleichberechtigung und des Schutzes bestimmter Gruppen. Als Lösung schlägt Wachter die Anwendung des juristischen Tatbestands der assoziativen Diskriminierung im Bereich der Onlinewerbung vor. Sie empfiehlt unter anderem, dass Individuen Beschwerde einreichen können sollten, wenn sie ein Werbesystem fälschlicherweise als Teil einer benachteiligten Gruppe identifiziert. Nach Ansicht der Rechts- und Ethikexpertin lässt sich mit der Herangehensweise die algorithmische Rechenschaftspflicht bei Onlinewerbung deutlich steigern.


🔖Hoffen auf die “Mini”-KI

(A new way to build tiny neural networks could create powerful AI on your phone), 10. Mai 2019, MIT Technology Review

Viele lernfähige Algorithmen basieren auf rudimentären, dem menschlichen Gehirn nachempfundenen Netzen aus künstlichen Neuronen. Solche neuronalen Netze erfordern gewöhnlich erhebliche Rechenkapazität, weshalb es bislang kaum möglich war, eine Künstliche Intelligenz (KI) lokal auf Endgeräten wie zum Beispiel Smartphones laufen zu lassen. Jonathan Frankle und Michael Carbin, Forscher am Massachusetts Institute of Technology (MIT), haben jedoch entdeckt, dass typische neuronale Netze um ein Vielfaches größere Dimensionen besitzen als technisch notwendig. Karen Hao, Reporterin bei MIT Technology Review, schildert die Erkenntnisse des Duos sowie die denkbaren Implikationen für das Feld der KI: Je weniger Kapazität und Ressourcen neuronale Netze benötigten, desto mehr Einsatzszenarien seien denkbar. Sie nennt als Beispiel ein medizinisches Gerät, das mittels KI lernt, ohne dafür Patientendaten in die Cloud eines Technologiekonzerns schicken zu müssen. Allein die datenschutzrechtlichen Vorzüge wären immens.


🔖Maschinen mit menschenähnlicher Intelligenz haben Verspätung

(AGI Has Been Delayed), 17. Mai 2019, rodneybrooks.com

Prognosen über das unmittelbar bevorstehende Eintreten eines Zustands, bei dem Künstliche Intelligenz (KI) Fähigkeiten erwirbt, um jede vom Menschen gemeisterte Tätigkeit mindestens mit gleichwertigem Resultat zu erledigen (kurz: AGI, Artificial General Intelligence), seien viel zu optimistisch. Das schreibt der Informatiker und Kognitionswissenschaftler Rodney Brooks in diesem Meinungsbeitrag. Als Indiz zieht er die sich ausbreitende Ernüchterung im Bereich selbstfahrender Autos heran. Mittlerweile rechneten selbst treibende Köpfe des Sektors damit, dass noch viele Jahrzehnte vergehen werden, bis die Technologie gut genug ist, um vollständig die Straßen übernehmen zu können. Autonome Autos repräsentieren laut Brooks lediglich das untere Ende von AGI. Ergo würde es noch länger dauern, um KI zu erschaffen, die in allen Bereichen dem Menschen ebenbürtige Fähigkeiten besitzen. Diese Form der KI sei  „verspätet“, so der Experte. Zum Thema empfehlen wir auch unsere Artikelreihe von Torsten Kleinz: „Der lange Weg zum autonomen Auto”.


🔖Warum der Algorithmus die Welt manchmal mit anderen Augen sieht

(Artificial Intelligence May Not ‚Hallucinate‘ After Al), 8. Mai 2019, Wired

Algorithmen zur Bilderkennung sehen mitunter Dinge, die Menschen nicht sehen – ein Phänomen, das sich auch für Angriffe (sogenannte “Adversarial Attacks”, siehe Erlesenes #14) ausnutzen lässt. Bislang war weitgehend unklar, warum Künstliche Intelligenz (KI) durch bestimmte Objekte oder Konstellationen auf Bildern in die Irre geführt wird. Wie Wired-Reporterin Louise Matsakis berichtet, bringt ein neues Papier von Wissenschaftler:innen des Massachusetts Institute of Technology (MIT ) (PDF hier) Licht ins Dunkel: Demnach nehmen die Algorithmen subtilste Muster oder mikroskopische visuelle Details wahr und bemerken so Gemeinsamkeiten zwischen Objekten, die dem menschlichen Auge entgehen. So könne aus der Perspektive der KI ein abgebildeter Hund in bestimmten Fällen zu einer Katze werden. Es handele sich also eigentlich gar nicht um einen Fehler. Nur stelle sich dann die grundsätzliche Frage nach der Sinnhaftigkeit von derartiger Technologie, wenn diese einen ganz anderen Blick auf die Welt hat als der Mensch.


🔖Popmusik wird immer trauriger und wütender, sagt ein Algorithmus

(Evidence that pop music is getting sadder and angrier), 14. May 2019, BBC

Im Laufe der letzten Jahrzehnte ist Popmusik immer trauriger und freudloser geworden. Herausgefunden hat dies ein Algorithmus, den der Computerwissenschaftler Lior Shamir mit den Songtexten von rund 6000 in den Charts vertretenen Hits der Jahre 1951 bis 2016 gefüttert hat, wie BBC-Redakteur David Robson berichtet. Die Software sei zuvor mit linguistischen Ausdrucksformen verschiedener Emotionen trainiert worden. Gemäß der Analyse haben Formulierungen, die Gefühle wie Wut, Furcht oder Abscheu ausdrücken, in den 65 Jahren um mehr als 50 Prozent zugenommen. Seit den 80er Jahren sei in den Songtexten zudem immer häufiger Traurigkeit präsent. Von Freude und Zuversicht gekennzeichnete Songtexte hätten dagegen stetig abgenommen. Immerhin zeigt eine andere Untersuchung, die Robson ebenfalls aufgreift, dass parallel mit der Verdunkelung der Stimmung die Tanzbarkeit der Popmusik zugenommen hat.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen