Algorithmenethik Erlesenes #30

Diese Ausgabe von Erlesenes bietet einige, auch für (Halb-)Laien verständliche Einblicke in die neusten „Fähigkeiten“ algorithmischer Systeme: Zauberwürfel lösen, Handlungen antizipieren und Kausalitäten erkennen. Auch erwartet Sie ein Essay über den Einfluss von KI auf die willentliche Unwissenheit und ein sehr informationshaltiger Longread über die Gefahren des KI-Nationalismus.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Das mögliche Ende der willentlichen Unwissenheit

(We Need to Save Ignorance From AI), 14. Juni 2018, Nautilus

Rund 90 Prozent der Deutschen würden sich vor Erkenntnissen über Ereignisse der Zukunft verschließen, wenn diese ihnen negative Emotionen bescheren – sie bevorzugen “willentliche Unwissenheit”. Doch die Freiheit, Dinge nicht erfahren zu wollen, ist im Zeitalter von Künstlicher Intelligenz (KI) bedroht, argumentieren Christina Leuker und Wouter van den Bos vom Berliner Max-Planck-Institut für Bildungsforschung in diesem Text. Sie schildern, wie Algorithmen zunehmend Informationen über Menschen und ihre Eigenschaften entlarven, bei denen sich die Frage stellt, ob sie nicht besser im Dunkeln geblieben wären. Auch erläutern die beiden zwei Grundmotive willentlicher Unwissenheit (Fairness und Regulierung des emotionalen Zustands) und diskutieren die zwei primären Maßnahmen, um gegenzusteuern (Limitierungen bei der Erhebung von Daten oder bei der Auswertung). Auch wenn der Text an einigen Stellen klare Recherchelücken aufweist (beispielsweise in Bezug auf die KI, die angeblich sexuellen Neigung anhand von Fotos erkennen kann. Siehe dazu Algorithmenethik Erlesenes #8), stellt er einen wichtigen, zum Nachdenken anregenden Diskussionsbeitrag dar.


🔖Ein Algorithmus wird zum Zauberwürfel-Experten

(A machine has figured out Rubik’s Cube all by itself), 15. Juni 2018, MIt Technology Review

Lernfähige Algorithmen können eigenständig die besten Strategien für Spiele wie Go oder Schach erarbeiten, indem sie über ein Belohnungssystem dazu animiert werden, immer besser zu werden. Beim Lösen des berühmten Zauberwürfels funktioniert dieser traditionelle Ansatz nicht, weil sich eine beliebige Konfiguration nicht per se als “gut” oder “schlecht” definieren und mit einer Belohnung verknüpfen lässt. Das MIT Technology Review berichtet in diesem eher technischen und dennoch gut verständlichen Artikel über einen neuartigen Deep-Learning-Algorithmus von Forschern der University of California, Irvine, der sich der Sache annimmt: Er geht vom gelösten Zauberwürfel aus und evaluiert anschließend eigenständig rückwärts jede mögliche Konfiguration, um darauf aufbauend sein eigenes Belohnungssystem zu entwickeln. Mit diesem kann der Algorithmus anschließend den Zauberwürfel lösen. Im Mittel benötige er dafür 30 Schritte – weniger oder ähnlich viele wie beim Einsatz von vom Menschen entwickelten Lösungsstrategien.


🔖KI-Nationalismus

(“AI Nationalism”), 13. Juni 2018, ianhogarth.com

Künstliche Intelligenz (KI) avanciert zu einem entscheidenden Wettbewerbsmerkmal zwischen Nationalstaaten – wirtschaftlich, militärisch und technologisch. Die Folge ist ein Wettrüsten und eine immer stärkere Fokussierung der involvierten Akteure auf nationale oder privatwirtschaftliche statt auf globale Interessen. Eine solche Entwicklung prognostiziert der KI-Ingenieur, Unternehmer und Investor Ian Hogarth in einem ausführlichen Essay, in dem er die verschiedenen, sich beschleunigenden Mechanismen beschreibt, die zu einem Aufstieg des “KI-Nationalismus”, verstärkter Abhängigkeit von China und den USA und einer „neuen Form des Kolonialismus“ führen könnten. Hogarth zeigt sich dementsprechend besorgt über diesen Trend. Anstelle der Nutzung von KI-Initiativen durch Regierungen zur Verschaffung von Wettbewerbs- und Machtvorteilen, wünscht er sich KI als “öffentliches Gut” – analog zu GPS, dem Hypertext Transfer Protocol (HTTP), welches das Laden von Websites ermöglicht, oder auch der englischen Sprache. Doch derzeit läuft alles auf eine Konzentration der KI-Kompetenz bei einigen wenigen Ländern und privatwirtschaftlichen Unternehmen hinaus (siehe dazu auch “Warum wir ein CERN für KI brauchen”).


🔖Algorithmus blickt einige Minuten in die Zukunft

14. Juni 2018, derStandard.at

Wenn jemand einen Kaffee kocht, ist es für Menschen sehr einfach vorherzusagen, dass die Person als nächstes wahrscheinlich den Kaffee in eine Tasse schütten wird. Für Algorithmen ist es jedoch eine äußerst schwere Aufgabe solche Handlungen zu antizipieren. Informatikern um Jürgen Gall von der Universität Bonn ist es nun immerhin gelungen, einer Künstlichen Intelligenz (KI) eine gewisse Prognosefähigkeit zu verleihen: Die Redaktion von derStandard.at berichtet über das Projekt, für das sich eine KI vier Stunden lang Videos mit Menschen ansah, die Salat zubereiten. Anschließend wurde sie mit ihr unbekannten Salat-Clips konfrontiert. Was in den ersten 20 bis 30 Sekunden geschah, wurde ihr mitgeteilt. Dann sollte sie die nächsten Schritte vorhersagen. Für kurze Vorgänge von unter drei Minuten lag die Genauigkeit immerhin bei 40 Prozent, sank dann aber schnell auf 15 Prozent. Noch deutlich schlechter wäre das Resultat gewesen, wenn der Algorithmus ganz allein hätte erraten müssen, was er da im Video eigentlich sah. Ein Artikel, der hilft, sich daran zu erinnern, dass der Begriff „Intelligenz“ sehr unterschiedliche beschreibt, je nachdem, ob er sich auf einen Menschen oder eine Maschine bezieht. Den Forschungsbericht gibt es hier als PDF.


🔖Wenn KI Kausalitäten erkennt

(“Artificial intelligence trained to analyze causation”), 6. Juni 2018, phys.org

Forscher aus Südafrika und Indien haben eine Künstliche Intelligenz (KI) entwickelt, die kausale Ereignisse zwischen verschiedenen Ereignissen erkennen kann. Das berichten Wissenschaftler der Universität von Johannesburg in diesem teilweise etwas technischen Artikel bei phys.org. Die KI sei in der Lage, eine Hierarchie von kausalen Zusammenhängen zu erkennen und eigene sich besonders, um komplexe Phänomene wie Krankheitsausbrüche, Klimawandel oder wirtschaftliche Trends zu analysieren. Die KI könne beispielsweise Erkenntnisse darüber liefern, wieso ein einzelner Haushalt in wirtschaftliche Schwierigkeiten geraten ist, und dabei sowohl die mikroökonomischen Faktoren herausarbeiten als auch die gesamtgesellschaftlichen Rahmenbedingungen, die zu diesen Faktoren führen. Gemäß den Autoren liefert der Algorithmus bessere Resultate als bisher übliche Modelle zur Analyse von Kausalität bei Ereignissen. Erst kürzlich rief der KI-Pionier Judea Pearl die Forschung dazu auf, Algorithmen die Fähigkeit beizubringen, kausale Zusammenhänge zu erkennen (siehe Algorithmenethik Erlesenes #26).


🔖In eigener Sache: Vorausschauende Polizeiarbeit: mit Algorithmen „vor die Lage kommen“

Sogenanntes “Predictive Policing”, also Polizeiarbeit unter Verwendung von Algorithmen zur Prognose künftiger Straftaten, kommt in Deutschland mittlerweile in sechs Bundesländern zum Einsatz. Hierzulande handelt es sich in der Regel um ortsbezogene Prognosen von Wohnungseinbrüchen. In anderen Ländern gehen die Ermittler weiter und versuchen, auch individuelles Verhalten vorherzusagen. Dr. Tobias Knobloch, Projektleiter „Algorithmen fürs Gemeinwohl“ bei der Stiftung Neue Verantwortung, liefert in einem Artikel bei uns im Blog einen Überblick über den Stand der Dinge in Deutschland, die Chancen, Risiken von Predictive Policing und fordert eine proaktivere Kommunikation durch die Polizei über den Einsatz algorithmischer Technologie.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentare

  1. / von Algorithmenethik | Algorithmenethik Erlesenes #32 - Algorithmenethik

    […] Wer mit den allgegenwärtigen Algorithmen der führenden Onlinedienste interagiert, vergisst oder verdrängt allzu leicht, wie viel diese Systeme mit der Zeit über einen lernen. Die Cartoonistin und Humoristin Emily Flake erweist uns einen Dienst, indem sie die enorme Kenntnis des Algorithmus über seine Nutzerinnen und Nutzer in diesem gedichtartigen, prägnanten und satirischen Text in deutliche Worte verpackt: Der Algorithmus kennt uns besser als unsere Freunde und unsere Familie. Er kann uns Dinge über uns selbst verraten, die uns entweder völlig unbekannt sind oder über die wir zumindest nie bewusst nachdenken. Er weiß Bescheid über unsere tiefsten Bedürfnisse. Und er ist so gut informiert, dass er sogar in der Lage wäre, uns zu verraten, wann wir sterben. Okay, ganz so weit sind wir noch nicht, schreibt Flake. Aber zumindest zu einer erschreckend genauen Prognose wäre der Algorithmus in der Lage. Siehe auch unsere Artikelreihe zur Prognose von Todesrisiken sowie Erlesenes #30: “Das mögliche Ende der willentlichen Unwissenheit”. […]

Kommentar verfassen