Algorithmenethik Erlesenes #31

Was passiert, wenn Software automatisch einen Mitarbeiter feuert? Warum ist es so schwer, Fairness beim Einsatz algorithmischer Systeme herzustellen? Zu diesen Fragen gibt es Antworten in dieser Ausgabe von Erlesenes. Außerdem erwarten Sie spannende Artikel zu neuen Errungenschaften aus der Forschung: eine debattierende KI und ein sprachbegabter Multitasking-Algorithmus.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Die Maschine hat mich gefeuert

(The Machine Fired Me), 20. Juni 2018, idiallo.com

Der Softwareentwickler Ibrahim Diallo wurde gefeuert, doch seine Vorgesetzten hatten ihn nicht entlassen. Sie waren genauso verwundert wie er, als plötzlich seine Zugangskarte zum Bürokomplex gesperrt war, seine Softwaresysteme deaktiviert wurden und ihn schließlich das Sicherheitspersonal aus dem Gebäude eskortierte. In diesem persönlichen Bericht schildert der Programmierer, wie ein bürokratischer Fehler eine automatische Prozesskette in Bewegung setzte, die selbst die höchste Führungsebene nicht mehr unterbrechen konnte. Die Software zur Abwicklung von Kündigungen hatte die Kontrolle übernommen. Erst Wochen später konnte Diallo wieder mit seiner Arbeit beginnen – nachdem er den administrativen Prozess für neue Mitarbeiter durchlaufen hatte. Der Text zeigt auf eindrückliche Weise die gravierenden Konsequenzen von Automatisierung, die keine Möglichkeit zur Intervention durch den Menschen bietet.


🔖Das Potenzial des Maschinellen Lernens

(Ways to think about machine learning), 22. Juni 2018, ben-evans.com

Was genau wird Maschinelles Lernen (ML) – gemeinhin auch als Künstliche Intelligenz (KI) bezeichnet – für Unternehmen und Menschen ermöglichen? Dieser Frage geht der Technologieinvestor Benedict Evans in diesem analytischen Stück nach. Er blickt hinter die oft von magischen Erwartungen und Anthropomorphismus geprägte Debatte zu KI und führt Analogien ein, die eine realistische Sicht auf das Thema erlauben. Evans macht deutlich: Auch bei ML geht es darum, sehr spezifische Aufgaben zu lösen, und nicht darum, komplexe Fähigkeiten von Experten zu automatisieren. Überlegen ist ML aber darin, mit vergleichsweise wenig Zeitaufwand Muster zu erkennen, die Menschen aufgrund begrenzter Kapazitäten verborgen bleiben. Aus Sicht von Evans werden sich in den nächsten 15 Jahren viele Einsatzfelder für ML auftun, die zu zahlreichen neuen Erkenntnissen führen. Welche genau, sei aber auch heute noch schwer vorherzusagen.


🔖Die vertrackte Sache mit der Sprache

20. Juni 2018, FAZ.NET

Die menschliche Sprache ist vielseitig und komplex. Lange Zeit war sie für Computer ein Buch mit sieben Siegeln. Zuletzt wurden Algorithmen durch Fortschritte im Maschinellen Lernen (ML) zwar immer besser darin, Sprache zu verstehen und zu verarbeiten. Doch über das Lösen spezieller Aufgaben, wie die Übersetzung eines Textes, kam Software bislang nicht hinaus. Einem Forscherteam um den Informatiker Richard Socher ist nun jedoch ein Durchbruch gelungen, wie FAZ-Wirtschaftsredakteur Alexander Armbruster berichtet: ein Algorithmus, der zehn unterschiedliche sprachliche Herausforderungen zugleich meistern kann. Er könne parallel übersetzen, zusammenfassen, Fragen zum Inhalt beantworten und die Stimmung eines Textes (etwa einer Filmkritik) identifizieren. Zudem sei das Programm in der Lage, neue Fähigkeiten zu lernen und bereits Gelerntes auf neue Aufgabenbereiche zu transferieren. Socher und seine Mitautoren wollen das Modell und die Datenbank künftig als Open Source verfügbar machen.


🔖Streitgespräch mit einer Künstlichen Intelligenz

(What it’s like to watch an IBM AI successfully debate humans), 18. Juni 2018, The Verge

IBM hat eine Künstliche Intelligenz (KI) entwickelt, die in der Lage ist, unvorbereitet fundierte Streitgespräche mit Menschen zu führen. Dieter Bohn, Chefredakteur bei The Verge, schildert den Verlauf der von dem IT-Konzern demonstrierten Debatten. Er erläutert, wie das System funktioniert, das vorab keinerlei Informationen zum Thema bekommt und dann in der Debatte auf Informationen aus mehreren hundert Millionen Artikeln zugreifen kann. Er habe die Debatte mit einem mulmigen Gefühl verfolgt, so Bohn: Denn ähnlich wie Menschen in Streitgesprächen schien die KI sich einer Technik zu bedienen, bei der sie nicht exakt auf die Argumentation der Mitdiskutanten einging. Gemäß IBM habe es sich zwar lediglich um ein Verständnisproblem der KI gehandelt. Doch wer in Zukunft mit einer Software diskutieren muss, weiß das natürlich nicht genau. Nutzen aus dem Verfahren könnten laut Autor beispielsweise Anwälte ziehen, die ihre Argumente strukturieren wollen. Auch beim Aufspüren von Fake News könne das System hilfreich sein.


🔖Der Versuch, Algorithmen Fairness beizubringen

(Bias detectives: the researchers striving to make algorithms fair), 20. Juni 2018, Nature

Die Erkenntnis, dass algorithmenbasierte Entscheidungen zu Diskriminierung führen können, hat mittlerweile auf breiter Ebene Einzug gehalten (siehe auch Algorithmenethik Erlesenes #5 und #10). Entsprechend intensiv suchen Forscherinnen und Forscher in Zusammenarbeit mit öffentlichen und staatlichen Einrichtungen nach Lösungen. Die Wissenschaftsjournalistin Rachel Courtland liefert einen Überblick über die verschiedenen Herausforderungen bei der Suche nach fairen Algorithmen – etwa die Existenz verschiedener Fairnessdefinitionen, die sich in ihrer Umsetzung gegenseitig ausschließen. Sie zeigt anhand von Fällen aus der Justiz und Kinderschutzbehörden, wie schwer es ist, die Zementierung gesellschaftlicher Ungleichbehandlungen durch die Algorithmen zu verhindern. Zudem hebt Courtland die Bedeutung von Transparenz und externer Prüfbarkeit von Algorithmen hervor. Klar ist: Ein perfekter Ansatz existiert bislang nicht und das wird vermutlich auch so bleiben. Aber zumindest hat die Problematik mittlerweile eine hohe Priorität.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen