Auch in dieser Ausgabe erwartet sie eine bunte Mischung an Themen: Von internationalen Digitalisierungs-Konferenzen, die in afrikanische Länder umziehen. Über Algorithmen, die die Vertrauenswürdigkeit von Babysittern vorhersagen. Bis hin zu Künstlicher Intelligenz, die Röntgenbilder manipuliert. Die Welt der Algorithmenethik ist in Bewegung. Jetzt Erlesenes lesen und auf dem neuesten Stand bleiben!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Explosiver Fortschritt in der Entwicklung von KI-Sprachsoftware

(Finally, a Machine That Can Finish Your Sentence), 18. November 2018, New York Times

Bislang glaubten viele KI-Expert:innen, dass die Entwicklung von Sprachsoftware an einen Engpass gelangt sei, weil Computer bis auf Weiteres nicht in der Lage sein würden, menschliche Sprache wirklich zu “verstehen”. Doch große technologische Fortschritte der letzten Monate rütteln an dieser Annahme. Cade Metz, Technologiekorrespondent bei der New York Times, berichtet über Systeme von Google und OpenAI, die unter anderem aufgrund der immer größeren Menge an vorhandener Rechenkapazität ein bislang einzigartiges Level an sprachlichem Verständnis erreichen. Beispielsweise sei derartige Software nun in der Lage, in einem Satz wie “Der Mann geht in den Laden und kauft eine __ Milch” das fehlende Wort „Tüte“ einzusetzen oder zu erkennen, wenn zwei unterschiedliche Sätze inhaltlich verwandt sind. Bis zum Ziel eines vollständig natürlichen Verständnisses menschlicher Sprache sei es zwar noch ein weiter Weg. Aber die Disziplin erlebe gerade “explosiven Fortschritt”. Zu einem verwandten Thema siehe auch Erlesenes #36 (“Menschen übersetzen besser als die KI – noch”).


🔖Führende KI-Konferenz wird in Afrika stattfinden

(Major AI conference is moving to Africa in 2020 due to visa issues), 19. November 2018, Venturebeat

Im Jahr 2020 wird eine der wichtigsten international führenden Konferenzen rund um Künstliche Intelligenz (KI), The International Conference on Learning Representations (ICLR), in der äthiopischen Hauptstadt Addis Abeba über die Bühne gehen. Für KI-Expert:innen aus ganz Afrika ist dies ein Meilenstein, wie Venturebeat-Reporter Khari Johnson erklärt: Viele der renommiertesten Events finden in Ländern statt, zu denen Menschen aus den meisten afrikanischen Ländern ein Visum benötigen – das ihnen die Behörden nicht selten verweigern. Strukturelle Benachteiligungen von KI-Spezialist:innen aus Entwicklungsländern werden so verstärkt. Johnson nennt in seinem Artikel das Beispiel einer geplanten Zusammenkunft der globalen KI-Organisation “Black in AI” im kanadischen Montreal, zu der einige Teilnehmer:innen aufgrund fehlender Visa nicht anreisen können. Auch passend zum Thema: Am 14. und 15. Dezember findet erstmals ein Ableger der bekannten Berliner Netzkonferenz re:publica im ghanaischen Accra statt.


🔖Algorithmus soll vorhersagen können, wer sich als Babysitter:in eignet

(Wanted: The ‘perfect babysitter.’ Must pass AI scan for respect and attitude.), 16. November 2018, Washington Post

Verständlicherweise wünschen Eltern sich Babysitter, denen sie vollständig vertrauen können. Ein vom US-Unternehmen Predictim entwickelter Algorithmus soll dies nun garantieren. Er analysiert Fotos und Inhalte, die Kandidat:innen bei Social-Media-Diensten wie Facebook oder Twitter publiziert haben, und präsentiert Eltern darauf basierend mehrere Risikoscores, welche die Wahrscheinlichkeit angeben, dass die Person beispielsweise Drogen nimmt, respektlos ist oder sich gegenüber dem Kind unangemessen verhalten könnte. Drew Harwell, Technologiereporter bei der Washington Post, beleuchtet die Ambivalenz, die einer derartigen Software innewohnt. Einerseits könne sie verhindern, dass Eltern ihre Kinder in die Hände von Personen mit mangelnder Eignung geben. Andererseits zeigen die Schwierigkeiten führender Techplattformen im Umgang mit “Hass”-Inhalten, dass korrekte Interpretationen von Nutzerbeiträgen durch Algorithmen keineswegs einfach sind. Zudem informiere Predictim-Anwender:innen nicht, wie es zu seinen Bewertungen gelangt. Hätte der Algorithmus beispielsweise eine Neigung zur Diskriminierung bestimmter Gruppen – Eltern würden es nicht erfahren. Über eine ähnliche Software einer anderen US-Firma namens Trooly berichtete übrigens The Guardian im vergangenen Jahr.


🔖Unispital Zürich trainiert KI als Röntgenbildfälscher

21. November 2018, inside-it.ch

Künstliche Intelligenz (KI) kann lernen, wie Brustkrebs auf Röntgenbildern aussieht, und damit bei der Diagnostik helfen. Das ist die gute Nachricht. Die weniger gute: KI ist auch in der Lage, krebsartige Abbildungen in die Röntgenbilder einzufügen oder sie aus ihnen zu entfernen. Es sei denkbar, dass Kriminelle ein derartiges Verfahren eines Tages verwenden könnten, um Diagnosen zu verfälschen. Zu diesem Schluss kommt eine Studie von Wissenschaftler:innen des Unispitals der ETH Zürich und des Memorial Sloan Kettering Cancer Center in New York, die inside-it.ch kurz zusammenfasst. Die Forscher:innen trainierten ihre Software anhand von 680 Mammographien von 334 Patientinnen darauf, Bilder, die eigentlich Krebsgewebe zeigen, in solche umzuwandeln, die dies nicht tun. Oder umgekehrt: Krebsanzeichen in Bilder von gesundem Gewebe einzufügen. Das Ziel der Studie: Vertreter:innen aus der medizinischen Fachwelt sowie Hard- und Softwareanbieter:innen für das bislang lediglich theoretische Problem zu sensibilisieren. Das Forschungspapier zur Studie gibt es hier.


🔖Selbst der unschuldige Fahrer soll für das autonome Auto haften

21. November 2018, Welt

Wenn autonome Fahrzeuge in einen Unfall verwickelt sind, müssten immer deren Halter:innen haften – selbst wenn diese keinen Fehler begangen haben. Dies fordert Joachim Müller, Vorstandsvorsitzender der Allianz Versicherungs-AG, über dessen Position Welt-Wirtschaftskorrespondent Nikolaus Doll schreibt. Als rechtliche Grundlage eignen sich gemäß Müller die sogenannten “Gefährdungshaftungen”. Dabei handele es sich um eine Form der Haftung für Schäden, die sich aus einer „erlaubten Gefahr“ ergeben. Das Prinzip fände bereits in der Luftfahrt oder im Schienenverkehr Anwendung. Allerdings existieren im Kontext autonomer Fahrzeuge schon heute Fälle mit äußerst komplexer Rechtslage, wie als ein selbstfahrendes Uber Auto einen Unfall mit Todesfolge verursachte (siehe Algorithmenethik Erlesenes #17). Um dieser Tatsache Rechnung zu tragen, spricht sich der Allianz-Chef auch dafür aus, Robotern eine eigene Rechtspersönlichkeit zu geben und sie mit Kapital beziehungsweise einer Versicherung auszustatten, damit sie Schäden begleichen können. Die Idee einer “elektronischen Person” lehnt Müller ab. Eine Zusammenfassung der rechtlichen Debatte zur Haftung von selbstfahrenden Autos finden Sie auch bei uns im Algorithmenethik-Blog in einem Beitrag von Torsten Kraul.


🔖In eigener Sache: Die Ursprünge der Künstlichen Intelligenz

Der Begriff „Künstliche Intelligenz“ ist heute in aller Munde. Doch wo kommt er eigentlich her, wie haben sich der Begriff und die Technologie entwickelt? In diesem, aus dem Englischen übersetzten Blogbeitrag schildert Robotik-Experte Rodney Brooks die Ursprünge der KI-Forschung und klärt einige Mythen rund um das Thema auf.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren