Zur vierten Staffel von Erlesenes dürfen wir Sie im neuen Jahr 2020 herzlich begrüßen – mit vielen Impulsen zur Algorithmenethik! Inwiefern hat Künstliche Intelligenz Auswirkungen auf das Klima? Welche Nation überrascht mit der Veröffentlichung von ethischen Prinzipien? Und wie müssen wir sogenannten „Biases“ in Datensets und Köpfen begegnen? Ab dieser Woche werden wir uns wieder mit neuen und altbekannten Fragen rund um das Thema Algorithmen auseinandersetzen. Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖„AI Now“-Jahresbericht: KI reproduziert Machtasymmetrien und Ungleichheit

(AI Now 2019 Report), Dezember 2019, AI Now Institute

Der Aufstieg von Künstlicher Intelligenz verstärkt weltweit in vielen Sektoren bestehende Machtasymmetrien und reproduziert Ungleichheit. Das ist eine Kernerkenntnis aus dem 2019er Jahresbericht des AI Now Institute der New York University. Auf 60 Seiten beleuchten die Wissenschaftler:innen eine breite Palette wichtiger Trends, Risiken und Möglichkeiten rund um KI. Ausgehend von dem gezeichneten Lagebild erarbeiteten die Expert:innen zwölf Empfehlungen zu Algorithmenethik und -regulierung. Unter anderem sprechen sie sich dafür aus, Akteure im KI-Sektor zu einer Kenntlichmachungen des Klimaabdrucks ihrer Technologien zu verpflichten, da das Training und die Anwendung von KI erhebliche Emissionen produziert (siehe Erlesenes #87, „Sieben Empfehlungen, um die Rolle von KI als CO2-Sünder zu verringern”). Eine andere Empfehlung betrifft eine Unterkategorie der Gesichtserkennung, bei der es darum geht, Emotionen und Persönlichkeitsmerkmale zu identifizieren. Angesichts wissenschaftlicher Zweifel an der Effektivität sollten Regierungen Verfahren für kritische und sensible Einsatzfelder gänzlich untersagen.


🔖Weißes Haus veröffentlicht zehn Prinzipien zur Regulierung Künstlicher Intelligenz

(The US just released 10 principles that it hopes will make AI safer), 7. Januar 2020, MIT Technology Review

Das Weiße Haus hat zehn Prinzipien definiert, denen US-amerikanische Bundesbehörden folgen sollen, wenn sie Regulierungen zur Künstlicher Intelligenz (KI) für den privaten Sektor entwerfen. Karen Hao, Reporterin bei MIT Technology Review, liefert einen kompakten Überblick der Prinzipien. Zu diesen gehören unter anderem das Streben nach vertrauenswürdiger KI, die Partizipation der Öffentlichkeit sowie eine wissenschaftliche Verankerung sämtlicher Initiativen. Die Richtlinien seien bewusst allgemein gehalten, um Behörden eine Anpassung an individuelle Eigenheiten spezifischer Sektoren zu erlauben. Laut Hao markiert der Vorstoß des Weißen Hauses eine Kehrtwende von der bisherigen Position, die Regierungseingriffe minimieren sollte. Doch da zuletzt immer mehr Länder das Thema KI und deren Regulierung offensiv angingen, sei die Trump-Administration unter Zugzwang geraten, vermutet Hao. Insgesamt gebe es Grund zu Optimismus, dass die Prinzipien positive Effekte haben werden.


🔖Einsatz von KI in der Medizin erfordert ein Verständnis von strukturellem Rassismus

(Teaching yourself about structural racism will improve your machine learning), 19. November 2019, Oxford Academy

Alle, die Künstliche Intelligenz (KI) im medizinischen Bereich einsetzen, sollten sich im Vorfeld mit dem Vorkommen und Wirken von strukturellem Rassismus befassen. Dabei handelt es sich um die Gesamtheit von gesellschaftlichen Mechanismen, die zu Nachteilen für ethnische Minderheiten führen. Diese Position vertreten die Epidemiologinnen Whitney R. Robinson, Audrey Renson und Ashley I. Naimi in diesem wissenschaftlichen Papier. Wichtig sei die Auseinandersetzung mit dem Thema aus zwei Gründen: Zum einen beeinflussen Faktoren, die sich aus struktureller Diskriminierung ergeben, das Auftreten medizinischer Phänomene bestimmter Gruppen. Zum anderen reproduzieren Algorithmen aus Datensets vorhandene Benachteiligungen (siehe Erlesenes #88, „Patienten-Software benachteiligt Millionen Afroamerikaner:innen”) oder schaffen diese neu infolge einer nicht repräsentativen Zusammenstellung der Daten. Diese Aspekte zu berücksichtigen, verbessere die Genauigkeit von KI-Modellen in der Medizin und minimiere Nachteile für Minderheiten aus dem Einsatz von medizinischer Technologie, so die Forscherinnen.


🔖Algorithmus erstellt Wetterprognosen für abgelegene Regionen

8. Januar 2020, Pressetext

In vielen abgelegenen Regionen können Menschen und Güter nur mit Flugzeugen transportiert werden. Genau dort mangelt es aber häufig an Wetter-Messstationen, was Pilot:innen und betroffene Anwohner:innen vor Herausforderungen stellt. Wie die Nachrichtenagentur Pressetext schreibt, testen Forscher:innen des Massachusetts Institute of Technology (MIT) in Kooperation mit der US-Bundesluftfahrtbehörde Federal Aviation Administration (FAA) einen Algorithmus, der in solchen Situationen helfen kann: Das System erstelle anhand der Live-Bilder hunderter Webkameras sowie Aufzeichnungen der vergangenen zehn Tage Echtzeit-Prognosen für Wetter- und Sichtverhältnisse der geplanten Route. Bei einem ersten Test in Alaska habe dieser Ansatz in über 90 Prozent der Fälle schlechte Sichtverhältnisse korrekt vorhersagen können. Als nächstes soll die Technik in Hawaii auf die Probe gestellt werden.


🔖An diesen Fotos scheitert Künstliche Intelligenz

14. Dezember 2019, Der Spiegel

Künstliche Intelligenz (KI) wird unter anderem dafür eingesetzt, Objekte auf Bildern zu erkennen. Das klappt manchmal auch schon recht gut – vorausgesetzt, es handelt sich um stereotypische Darstellungen. „Wenn das Motiv aber von der Norm abweicht und nicht mehr in den Kontext passt, dann wird es knifflig”, schreibt Spiegel-Netzreporter Jörg Breithut mit Bezug auf eine von Forscher:innen des Massachusetts Institute of Technology (MIT) angelegte Datenbank namens ObjectNet. Sie enthält circa 50.000 Bilder von rund 300 Objekten wie Eiern, Taschenlampen und Weckern in untypischen Situationen oder aufgenommen aus unkonventionellen Winkeln. An der Erkennung der Motive sei die Software in fast 50 Prozent der Fälle gescheitert, erklärt Breithut. Bei ObjectNet handelt es sich allerdings nur um eine verhältnismäßig kleine Testdatenbank mit besonderen Fällen, nicht um eine generelle Bilddatenbank zum Trainieren von KIs, wie etwa ImageNet. Allerdings hat auch diese ihre Schwächen (siehe Erlesenes #83, „Kunstprojekt ‚ImageNet Roulette: Warum die Bilderkennungs-KI zu Beleidigungen neigt).


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren