Algorithmenethik Erlesenes #73

Einige Glückliche in Deutschland genießen ein langes Wochenende. Deswegen erscheint unser Erlesenes-Newsletter diese Woche ausnahmsweise an einem Freitag. Für alle gibt es aber wie immer ein Potpourri an Fragen und Antworten rund um Algorithmenethik: Vergeben und vergessen – Welche Daten dürfen Algorithmen künftig nicht mehr berücksichtigen? Wie könnte Künstliche Intelligenz im Gerichtssaal helfen? Und wie viel Rassismus steckt in einigen Algorithmen?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Vergeben und vergessen: Was Algorithmen lernen müssen 

(The Next Big Privacy Hurdle? Teaching AI to Forget), 12. Juni 2019, Wired

Wie bringen wir Künstlicher Intelligenz (KI) bei, bestimmte Informationen zu vergessen? Diese Frage wirft Darren Shou in diesem Meinungsbeitrag bei Wired auf. Besonders wichtig sei sie, wenn es um junge Menschen geht. Kinder und Jugendliche treffen Entscheidungen, machen Fehler und lernen daraus. Die Erwachsenenwelt versteht dies und gibt diesem Prozess einen gewissen Spielraum. Algorithmen hingegen fehle dieses Verständnis. Die Folge: Daten zu einer Regelüberschreitung im Teenager-Alter könnten viele Jahre später das gleiche Gewicht erhalten wie jeder andere Datenpunkt – mit verschiedenen denkbaren negativen Konsequenzen. Die “KI Generation” benötigt ein Recht auf Vergebung, wie Shou es bezeichnet. Ein verwandter Aspekt sei die Frage, inwieweit eine KI anhand von Daten verstorbener Personen trainiert werden dürfe. Grundsätzlich sei es an der Zeit, Mechanismen zu entwickeln, um Algorithmen vermitteln zu können, welche Daten sie wie nutzen dürfen oder vergessen müssen.


🔖Datenforscherin: Künstliche Intelligenz ist kaputt“

16. Juni 2019, Heise Online

Erschaffer:innen von Künstlicher Intelligenz (KI) entwickeln einen immer größeren Datenhunger, konstatierte die Datenforscherin Sophie Searcy im Rahmen der Konferenz “AI Traps” in Berlin, über die der freie Journalist Stefan Krempl berichtet. Jede(r) dreht nur noch an den virtuellen Stellschrauben für Algorithmen und schaut darauf, wie sich durch das Sammeln von immer mehr Trainingsdaten Genauigkeitsverluste reduzieren und höhere Erkennungsraten erzielen lassen, so Searcy. Das sei ein Problem: Denn dieses Vorgehen befördere Monopole auf Daten und Inhalte. Die den Markt beherrschenden Techkonzerne könnten damit auch den Arbeitsmarkt kontrollieren und KI-Entwickler:innen an sich binden. Diese Entwicklung sei „schlecht für jeden“, die Allgemeinheit profitiere nicht davon. Searcys Forderung: eine deutlich strengere Regulierung der datengetriebenen Branche. Die europäische Datenschutz-Grundverordnung (DSGVO) reiche nicht aus.


🔖Digitale Revolution: „Wir werden irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen können“

10. Juni 2019, Handelsblatt

Wir erleben eine völlig verzerrte Diskussion über KI, weil nur eine Handvoll Leute darüber kompetent reden kann und der Rest nur die Nachrichten konsumiert – das sagt Kristian Kersting, Professor für Maschinelles Lernen an der TU Darmstadt und Mitglied der Plattform „Lernende Systeme“ vom Bundesforschungsministerium, im von einigen provokanten Thesen flankierten Gespräch mit Handelsblatt-Redakteur Anis Mičijević. Kersting wünscht sich von Kolleg:innen in der wissenschaftlichen Community, dass sie mehr populärwissenschaftliche Bücher über KI schreiben. Das Thema gehört seiner Ansicht nach auch in den Sozial- oder Religionsunterricht. Schon weil KI den Menschen unter Umständen entmystifizieren werde. Er halte es für denkbar, dass man irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen können wird. Viele Leute müssten diesen Gedanken erst einmal verdauen.


🔖Staatsanwaltschaft setzt KI gegen Vorurteile ein

(SF DA Gascón launching tool to remove race when deciding to charge suspects), 12. Juni 2019, San Francisco Chronicle

Die Staatsanwaltschaft in San Francisco will mithilfe Künstlicher Intelligenz (KI) implizite Vorurteile und eine daraus folgende Diskriminierung von Verdächtigen verhindern. Evan Sernoffsky, Reporter beim San Francisco Chronicle, berichtet über das Vorhaben, für das ein relativ simpler Algorithmus zum Einsatz kommt: Er bearbeitet elektronische Polizeiberichte für “allgemeine Fälle” und entfernt sämtliche Angaben, die Rückschlüsse auf die Ethnie oder andere sensible Identitätsmerkmale zulassen. Erst in einem zweiten Schritt schauen Staatsanwält:innen sich eventuelles Beweismaterial wie Fotos oder Videos an. Sollte dann eine vorherige Entscheidung bezüglich der Erhebung einer Anklage geändert werden, müsse dieser Beschluss erklärt werden. Bei Straftaten wie häuslicher Gewalt oder Mord werde das System zunächst nicht zum Einsatz kommen. Eine deutsche Zusammenfassung des Artikels finden Sie bei Golem.


🔖Wie viel Rassismus steckt in Algorithmen?

15. Juni 2019, Spiegel Online

In New York will ein privater Vermieter in Sozialwohnungen Schlüssel gegen Gesichtserkennungssoftware austauschen – in schwarzen Nachbarschaften, aber nicht auf der Upper East Side. Dabei würden ohne Kontrolle biometrische Daten gesammelt. Es handelt sich um ein typisches Beispiel für das Phänomen, dass von den Negativ-Effekten Künstlicher Intelligenz (KI) oft die Communitys betroffen sind, die schon immer Ziel von Überwachung waren und unter Generalverdacht standen, mahnt die Forscherin Mutale Nkonde im Interview mit Spiegel-Online-Redakteurin Sonja Peteranderl. Nkonde ist Fellow am New Yorker Forschungsinstitut Data & Society und Kämpferin gegen Rassismus, der durch Algorithmen und andere Technologien verstärkt werden kann. Sie fordert das Erreichen einer gesellschaftlichen “Racial Literacy“. Es müsse ein Bewusstsein für Rassismus entstehen – erst recht bei Entwickler:innen und Anwender:innen von KI. Wer behauptet, “farbenblind” zu sein, habe auch nicht den Anspruch, etwas zu verbessern.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen