Diese Woche haben wir für Erlesenes mal wieder Beiträge sehr unterschiedlicher Formate ausgewählt. Neue Innovationen, Debattenbeiträge und Lösungsansätze. Es sollte für jeden was dabei sein: U.a. erwartet Sie ein Kommentar zu Googles neuer algorithmische Innovation – dem sehr menschlich klingenden Sprachassistenten Duplex + Einblicke in die Arbeit von Chinas KI-Riesen SenseTime + ein Interview mit der Informatik-Professorin und Initiatorin des ersten Studiengangs in Sozioinformatik + …

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten! Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de


🔖Sprachassistent Google Duplex: Wir müssen reden, Google  

11. Mai 2018, Spiegel Online

Die Einen sind entzückt, die anderen schockiert: Google hat eine experimentelle Software vorgestellt, die am Telefon einen Menschen imitieren und beispielsweise einen Friseurtermin vereinbaren kann. Patrick Beuth, Redakteur im Ressort Netzwelt bei Spiegel Online, kommentiert den kontroversen Vorstoß des Internetriesen sowie dessen ethische Dimension. Er wirft unter anderem die Frage auf, wieso das Programm durch Redepausen und das Einstreuen von “Hmms” und “Ähms” vortäuschen soll, ein Mensch zu sein, obwohl Google klargestellt hat, dass das Programm in jeder Konversation deutlich machen soll, dass es sich nicht um einen Menschen handelt. Martin Weigert, Kurator bei Algorithmenethik Erlesenes, beschreibt derweil in einem persönlichen Blogbeitrag, warum Duplex weniger innovativ ist, als von Google und seinen loyalen Fans dargestellt. In der Tat ist die präsentierte Künstliche Intelligenz (KI) auf inhaltlich sehr begrenzte, extrem vorhersehbare Gesprächsverläufe beschränkt. Eine wirkliche “Konkurrenz” für den Menschen stellt Duplex bislang nicht dar. Aber eines hat Google in jedem Fall geschafft: eine breite Debatte rund um KI und Ethik ausgelöst.


🔖Mit synthetischen Daten zu einer Demokratisierung von Künstlicher Intelligenz

(Deep learning with synthetic data will democratize the tech industry), 11. Mai 2018, TechCrunch

Organisationen sowie Startups, die im Bereich Künstlicher Intelligenz (KI) Ideen umsetzen wollen, aber nicht über hinreichend umfangreiche Datensets verfügen, können stattdessen durch Simulation künstlich Daten produzieren. Über diese Methode informiert der Investor Evan Nisselson in diesem Beitrag für das Technologie-Nachrichtenportal TechCrunch. Nisselson nennt eine Reihe von Akteuren, die mit dem Verfahren erfolgreich Algorithmen trainieren. Ein Beispiel: Das Kalifornische Unternehmen AiFi entwickelt Lösungen für kassenlosen Handel. Hierfür simuliert das Startup Supermärkte am Computer und generiert auf diese Weise Daten, die anschließend für die Verbesserung des eigenentwickelten Algorithmus genutzt werden. Die genaue Vorgehensweise zur Schaffung von “synthetischen” Daten wird im Text nicht erläutert. In jedem Fall macht er aber Hoffnung: Die Ungleichheit zwischen Techgiganten und anderen Protagonisten, was den Zugang zu Trainingsdaten für KI angeht (siehe Algorithmenethik Erlesenes #24 – “Instagram-Bilder helfen, Bilderkennungsalgorithmen zu verbessern“), führt zu Wettbewerbsnachteilen für kleinere Akteure sowie Forschungsinstitutionen und Nonprofits. Könnten synthetische Daten zu einer Demokratisierung und Entmonopolisierung der IT-Industrie führen?


🔖Wie Cambridge Analytica 253 Algorithmen zur Persönlichkeitsanalyse entwickelte 

(Cambridge Analytica: how did it turn clicks into votes?), 6. Mai 2018, The Guardian

Die Aufregung und das öffentliche Interesse an dem Missbrauch von Facebook-Nutzerdaten durch das Analyseunternehmen Cambridge Analytica (CA) verfliegen langsam. Die Frage, ob das Unternehmen mit seinem Verfahren die US-Präsidentschaftswahl beeinflussen konnte oder nicht, ist bis heute ungeklärt. Daran ändert auch dieser Text des Technologiereporters Alex Hern nichts. Er ist aber aus einem anderen Grund sehr lesenswert: Hern erklärt basierend auf einem Gespräch mit dem ehemaligen CA-Mitarbeiter und -Whistleblower Christopher Wylie im Detail, wie CA aus einigen hunderttausend ausgefüllten Persönlichkeitstests von Facebook-Nutzern 253 Algorithmen entwickelt hat, mit denen die “Big Five”-Persönlichkeitsmerkmale von vielen Millionen Facebook-Anwendern identifiziert werden konnten. Während die Effektivität der von CA unter Einsatz dieser Algorithmen erstellten personalisierten Werbekampagnen weiter umstritten bleibt, zeigt die angewendete Methode, wie leicht sich einzelne online hinterlassene Datenpunkte zu Personen dafür nutzen lassen, um andere Merkmale ihrer Persönlichkeiten zumindest statistisch zu identifizieren.


🔖Chinas milliardenschwerer, allwissender KI-Riese SenseTime

(The billion-dollar, Alibaba-backed AI company that’s quietly watching people in China), 16. April 2018, Quartz

Mit einer Bewertung von drei Milliarden US-Dollar gehört der chinesische Spezialist für Gesichtserkennung und Künstliche Intelligenz (KI), SenseTime, zu den wertvollsten reinen KI-Unternehmen der Welt. Josh Horwitz, Asien-Korrespondent bei Quartz, porträtiert die 2014 gegründete Firma, deren Kundschaft sowohl im privaten Sektor als auch bei staatlichen chinesischen Institutionen zu finden ist. In seinem Text arbeitet Horwitz die verschiedenen Faktoren heraus, die SenseTime in für junge KI-Startups weltweit ungeahnte Dimensionen katapultiert haben: Das Fehlen von etablierter, traditioneller Infrastruktur zur Verifizierung von Identitäten in China (etwa durch Banken), die große Nachfrage nach Überwachungstechnologie seitens des Staates sowie das Privileg, für das Training der Algorithmen auf einen enormen behördlichen Datenschatz zugreifen zu dürfen. Diese Kombination aus für SenseTime und seine Konkurrenten äußerst vorteilhaften Marktbedingungen habe dafür gesorgt, dass chinesische Firmen bei Gesichtserkennung heute internationalen Rivalen voraus sind.


🔖Guter oder böser Algorithmus? Warum Software Moral braucht 

7. Mai 2018, Westfälische Rundschau

Wer algorithmische Entscheidungssysteme baut, kann viele Fehler machen. Diese Grunderkenntnis vermittelt die Informatik-Professorin Katharina Zweig den Studierenden der “Sozioinformatik” an der TU Kaiserslautern – ein deutschlandweit einmaliger Studiengang. Er soll Absolventen in die Lage versetzen, “richtig gute” – und ethisch vertretbare – Software zu entwickeln. Der Reporter Karsten Kammholz stellt in diesem Artikel die Fachrichtung der Sozioinformatik vor und schildert sowohl Positiv- als auch Negativbeispiele für den Einsatz algorithmischer Software. Kammholz verrät auch ein interessantes Detail zum praktischen Einsatz von Algorithmen in der Arbeit der IT-Professorin: Sie vertraut bei der Bewertung einer mündlichen Prüfung nicht nur auf ihre eigene Wahrnehmung, sondern auch auf einen selbst entwickelten Algorithmus, der Fehlentscheidungen ausschließen soll. Denn trotz aller Schwächen sieht Zweig viel Potenzial in Künstlicher Intelligenz. Wer sich im Detail mit den Perspektiven und Erfahrungen von Katharina Zweig zu algorithmischer Entscheidungsfindung beschäftigen möchte, dem empfehlen wir unser von ihr erstelltes Arbeitspapier “Wo Maschinen irren können”.


🔖In eigener Sache: Auch die von uns empfohlenen Artikel im Erlesenes-Newsletter zeigen immer wieder: Beim Einsatz von Algorithmen kann vieles schiefgehen. Doch es gibt viele gute Ideen, wie sichergestellt werden kann, dass algorithmische Systeme zum Wohle aller Menschen genutzt werden. Die freie Autorin Julia Krüger und Konrad Lischka, Projektleiter des Algorithmenethik-Projekts, haben gemeinsam ein Arbeitspapier „Damit Maschinen den Menschen dienen“ geschrieben, in dem sie einen Überblick über Handlungsfelder geben und Lösungsansätze systematisieren. Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des Bundes, eine kompetente Algorithmenagentur uvw. werden in dem Lösungspanorama diskutiert.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren