Algorithmenethik Erlesenes #85

Wie viel ist Ihnen Ihre Privatsphäre wert? Dieser Frage gehen einige unserer kuratierten Beiträge aus dem Erlesenes-Newsletter dieser Woche nach: Kann ein Algorithmus für uns Datenschutzbedingungen „lesen“ und auswerten? Können wir die Schwächen von Künstlicher Intelligenz für mehr Privatsphäre ausnutzen? Und wie weit dürfen wir beim Sammeln diverser Datensätze gehen? An dieser Stelle: Genug Lesestoff für eine diskussionsfreudige Woche!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Ein Algorithmus, der Datenschutz und ethische Implikationen von Onlineplattformen bewertet

(Don’t want to read privacy policies? This AI tool will do it for you), 27. September 2019, Vox

Viele Menschen machen sich Sorgen über mangelnde Privatsphäre im Internet, verhalten sich aber online relativ sorglos. Der Softwareentwickler und Forscher Javi Rameerez liefert mit seinem Projekt „Guard” vielleicht einen Weg, um dieses Paradoxon abzuschwächen. Bei Guard handele es sich um einen Algorithmus, der die oft für Nichtjurist:innen völlig unverständlichen Datenschutzbedingungen bekannter Onlineplattformen hinsichtlich ihrer Privatsphäre-Implikationen analysiert und benotet, berichtet Sigal Samuel, Journalistin beim Onlinemagazin Vox. Noch befände sich die Anwendung im geschlossenen Beta-Stadium und hätte zurzeit deutliche Grenzen. Interessierte könnten allerdings mithelfen, die Künstliche Intelligenz (KI) zu trainieren, indem sie in einem kurzen Test ethische und datenschutzrelevante Fragen beantworten. Dass Rameerez Partizipierende explizit dazu aufruft, den Test mit Personen aus in Datensätzen sonst häufig unterrepräsentierten Gruppen zu teilen, um so eine diskriminierungsfreie KI zu schaffen, sei lobenswert, so Samuel.


🔖Gezieltes Verwirren des Algorithmus zum Schutz der Privatsphäre

(Blind Spots in AI Just Might Help Protect Your Privacy), 2. Oktober 2019, WIRED

Verfahren zum gezielten Verwirren von Künstlicher Intelligenz (KI) durch kleinste Manipulationen, sogenannte „Adversarial Attacks”, gelten unter Expert:innen gemeinhin als Schwachstellen mit hohem Missbrauchspotenzial. Doch wie Wired-Reporter Andy Greenberg in diesem Text bemerkt, lässt sich der Ansatz auch für positive Zwecke nutzen, etwa um die Privatsphäre und Integrität von Personen im Netz zu schützen. Greenberg nennt hierzu zwei aktuelle Forschungsprojekte aus den USA. Eines davon zielte darauf ab, die Fähigkeit von Algorithmen, allein auf Basis von Onlinebewertungen von Apps Rückschlüsse über den Wohnort der Urheber:innen zu ziehen und mit einigen wenigen Fake-Reviews in die Irre zu führen – mit Erfolg. Allerdings handele es sich letztlich um ein „Katz-und-Maus-Spiel“. Denn Protagonist:innen, die KI dafür nutzen, um aus Onlinedaten Profit zu schlagen oder (wie Cambridge Analytica) auf Basis von Daten die öffentliche Meinung zu beeinflussen, entwickeln ihre Techniken stets weiter.


🔖Maschinelles Lernen genügt nicht, um starke KI zu schaffen

(We can’t trust AI systems built on deep learning alone), 27. September 2019, MIT Technology Review

Das Forschungsfeld Künstlicher Intelligenz (KI) ist stark auf Deep Learning fokussiert. Dies berge die Gefahr, dass sich der Sektor damit selbst „ein Bein stellt“. Der Ansatz alleine sei nicht genug, um eine starke KI zu schaffen, die disziplinenübergreifend einsetzbar ist, kausale Zusammenhänge versteht und analog zum Menschen bestimmte Grundkonzepte inhärent verinnerlicht. Diesen Standpunkt vertritt Gary Marcus, Forscher und Professor für Psychologie und Neurowissenschaft an der Universität New York. Anlässlich seines neuen Buches „Rebooting AI” spricht Karen Hao, Reporterin bei MIT Technology Review, mit Marcus darüber, wie der aus seiner Sicht gesellschaftlich erstrebenswerte Evolutionsschritt von „schwacher” KI zu echter maschineller Intelligenz gelingen kann und wieso er trotz aller Probleme mit aktuellen Algorithmen langfristig optimistisch ist.


🔖Ein Plädoyer für „grüne” Künstliche Intelligenz

(Green AI), 13. August 2019, arXiv.org

Künstliche Intelligenz (KI) hat einen fragwürdigen ökologischen Fußabdruck (siehe Erlesens #72). Ein US-amerikanisches Forscherteam rund um Roy Schwartz vom Allen Institute for AI sieht das allgegenwärtige Streben nach maximaler Akkuratheit der Algorithmen ohne Blick auf die Kosten als mitverantwortlich für diese Situation, wie er es in diesem wissenschaftlichen Papier darlegt. Das Quartett fordert eine Abkehr von der alleinigen Fixierung auf Akkuratesse und eine Erweiterung der innerhalb der Disziplin als wichtig und relevant anerkannten Metriken um (Ressourcen-)Effizienz. Eine derartige „grüne KI” würde sich am Ziel orientieren, qualitative Fortschritte zu erreichen, aber ohne dass dies mit erhöhtem Rechenbedarf geschieht. Idealerweise würde sich die benötigte Rechenkapazität gar verringern. Die Wissenschaftler sprechen sich auch dafür aus, dass KI-Konferenzen Aspekte der Effizienz zu einem Auswahlkriterium für eingereichte Forschungspapiere machen.


🔖Google soll gezielt Gesichtserkennung mit Obdachlosen trainiert haben

3. Oktober 2019, derStandard.at

Die gutgemeinte Intention von Google, für diskriminierungsfreie Gesichtserkennungstechnologie mehr Bilder mit Gesichtern von dunkelhäutigen Personen zu sammeln, soll in den USA zu einem unethischen Vorgehen geführt haben, wie diesem Artikel bei derStandard.at zu entnehmen ist. Ein von dem Internetkonzern beauftragter Dienstleister habe Personen auf der Straße angesprochen und sie mit Fünf-Dollar-Gutscheinen gelockt, an einem „Selfie-Game” teilzunehmen. Wofür das gesammelte Bildmaterial tatsächlich verwendet werden sollte, erfuhren die Betroffen laut einigen Angaben nicht. Google habe eine Untersuchung der Vorfälle angekündigt. Laut dem Artikel werde es zumindest in Kalifornien ab 2020 eine Absicherung gegen die Praxis geben: Ab dann verpflichtet ein Gesetz Firmen dazu, Teilnehmer:innen genau darüber zu informieren, welche Daten zu welchem Zweck gesammelt werden.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen