Weil unser Team gestern mit Projektevaluation, -planung, dem Besuch einer Roboterausstellung und des Paderborner Weihnachtsmarkts ausgelastet war, erreicht Sie Erlesenes diese Woche ausnahmsweise erst am Freitag. Was sich nicht geändert hat: Die ausgewählten Artikel sind vielfältig, aktuell und werfen viele wichtige Fragen rund um das Thema Algorithmenethik auf: Wie funktioniert der Schufa-Algorithmus? Kann Künstliche Intelligenz die Gefühle von Menschen erkennen? Welche Gütekriterien sollten algorithmische Entscheidungsprozesse erfüllen?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Schufa: So funktioniert Deutschlands einflussreichste Auskunftei

November 2018, Spiegel Online

Der Algorithmus der Schufa, Deutschlands einflussreichster Auskunftei, ist Geschäftsgeheimnis. Die Initiative OpenSchufa der Organisationen AlgorithmWatch und Open Knowledge Foundation will Licht in die “Blackbox” bringen. 2000 Verbraucher:innen forderten Schufa-Selbstauskünfte an und spendeten anschließend ihre Daten. Journalist:innen des Spiegel und des Bayerischen Rundfunks werteten diese aus. Sie präsentieren in diesem Artikel einige der wichtigsten Erkenntnisse: Etwa dass selbst bei Personen, die sich bisher nichts haben zuschulden kommen lassen, ein Risiko attestiert wird. Oder dass die Auskunftei von vielen Menschen nur wenige Informationen gespeichert hat, sich aber trotzdem eine genaue Risikoeinschätzung zutraut. Auch erwähnenswert: Jüngere Menschen werden häufiger schlecht bewertet als ältere. Männer erhalten häufiger negative Bewertungen als Frauen. Zum Abschluss erklärt der Artikel ausgehend von der Praxis des US-amerikanischen Schufa-Pendants Fico, wie ein besser erklärtes Schufa-Scoring aussehen könnte. Disclaimer: Die Bertelsmann-Stiftung gehört zu den finanziellen Unterstützern der Organisation AlgorithmWatch.


🔖Dieses Start-Up will Schlaglöcher mit Smartphones und KI aufspüren

29. November 2018, WIRED.de

Künstliche Intelligenz (KI) soll Kommunen dabei helfen, den Zustand ihrer Straßen systematisch zu überwachen und automatisiert zu erkennen, wo eine Reparatur nötig ist. Der freie Journalist Tobias Schaffrath Rosario berichtet bei Wired.de über das deutsche Startup Vialytics, das hierfür eine Lösung entwickelt hat: Das Unternehmen platziert Smartphones in der Frontschutzscheibe von Kehrfahrzeugen, Autos der Müllabfuhr und anderen kommunalen Fahrzeugen. Die Geräte schießen kontinuierlich Fotos von der Straße, die anschließend von einer KI ausgewertet werden. Zur Wahrung des Datenschutzes schwärzt eine zweite KI vor der Analyse automatisch auf den Fotos abgebildete Personen. Seit dem Sommer 2018 ist das System in fünf Kommunen in Baden-Württemberg im Einsatz. Der IT-Branchenverband Bitkom zeichnete die Stuttgarter für ihre Idee gerade mit dem „Smart Country Startup Award“ aus. Apropos: Auch im Blog unserer Kolleg:innen der Bertelsmann Stiftung aus dem Projekt “Smart Country” finden sich spannende Beispiele zur Digitalisierung von Kommunen in Deutschland.


🔖Vier Grundfragen der KI-Nutzung

(AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations), 26. November 2018, Springer Link

Welche Auswirkungen wird Künstliche Intelligenz (KI) haben, auf wen und durch wen? Dies sind zentrale Fragen eines umfangreichen Berichts der in Brüssel ansässigen europäischen KI-Initiative AI4People, erarbeitet von einem internationalen Team aus KI-Expert:innen. Die Autor:innen beleuchten grundlegende gesellschaftlichen Chancen und Risiken im Zusammenhang mit KI anhand vier Grundfragen: Wer können wir dank KI werden? Was können wir mit KI anstellen? Was können wir dank KI erreichen? Wie können wir mithilfe von KI untereinander und mit der Welt interagieren? Aus Sicht der Forscher:innen sind verschiedene Szenarien absehbar: eine ausgewogene Nutzung von KI im Sinne des Gemeinwohls; eine zu geringe Nutzung von KI, die Chancen verpasst, oder eine ausufernde Nutzung von KI, die Risiken ignoriert. Erstrebenswert sei ein KI-Einsatz, der die wesentlichen Potenziale nutzt und gleichzeitig Missbrauch minimiert.


🔖Kann KI beigebracht werden, Gefühle zu verstehen?

(Emotion Science Keeps Getting More Complicated. Can AI Keep Up?), 28. November 2018, How We Get To Next

Menschliche Emotionen sind kompliziert. Welche Gefühle wir erleben und mit welcher Intensität, hängt unter anderem vom kulturellen und historischen Kontext ab. Der Futurist und Historiker Rich Firth-Godbehere wirft in diesem Essay angesichts der Komplexität menschlicher Emotionen die Frage auf, ob es gewollt und möglich ist, Maschinen zu schaffen, die Emotionen erkennen und selber fühlen können. Für das Fühlen müsse KI neben kulturellen Kontexten mit Ambiguitäten menschlicher Gesichtsausdrücke und Stimmen umgehen sowie Beziehungen zwischen Personen und Objekten der Umgebung verstehen können. Und selbst dann fehle noch etwas: Empathie. ”Maschinen haben zwar ein perfektes Gedächtnis, aber der Prozess des menschlichen Fühlens funktioniert, weil er so unscharf ist”, konstatiert Firth-Godbehere. Bereits heute wird viel zur Anwendung von Emotionserkennungs-KI geforscht. Das Thema ist somit schon jetzt relevant, dürfte aber in Zukunft immer wichtiger werden.


🔖Googles Gmail-KI schlägt keine Personalpronomen mehr vor

(Fearful of bias, Google blocks gender-based pronouns from new AI tool), 27. November 2018, Reuters

Der von 1,5 Milliarden Menschen weltweit genutzte E-Mail-Dienst Gmail schlägt ab sofort keine algorithmisch generierten Textbausteine mehr vor, die geschlechtsspezifische Personalpronomen enthalten, berichtet Reuters-Journalist Paresh Dave. Der Grund: Die Künstliche Intelligenz des Internetriesen sei nicht in der Lage, in jedem Fall das korrekte Pronomen zu identifizieren. Lautet ein von Nutzer:innen getippter Satz in einer E-Mail etwa “I am meeting an investor next week.”, so würde Gmail als nächsten Textbaustein “Do you want to meet HIM?” vorschlagen. Verantwortlich hierfür sind, wie bei vielen Fällen algorithmischer Diskriminierung, die im Datenmaterial enthaltenen historischen Stereotypen. Die betroffene Funktion zur Satzergänzung wird derzeit nur für die englische Sprache angebotenen. Die Einschränkung gilt auch für Gmails “smarte” E-Mail-Antwortoptionen – ein nicht unumstrittenes Feature, wie wir ihn Erlesenes #47 („Wenn die Maschine dem Mensch beibringt, wie eine Maschine zu kommunizieren“) dokumentieren.


🔖In eigener Sache: Onlinebeteiligung startet: Helft uns den Gütekriterienkatalog für algorithmische Systeme zu entwickeln!

Noch bis zum 21. Dezember können sich Expert:innen, Praktiker:innen sowie Interessierte an unserer Befragung zur Schaffung eines Gütekriterienkatalogs für Algorithmen beteiligen. Der Gütekriterienkatalog kann als eine Leitlinie für Algorithmengestalter:innen dienen, ähnlich dem Hippokratischen Eid für Mediziner:innen und dem Pressekodex für Journalist:innen. Über unsere Umfrage wollen wir den Katalog praxisnaher gestalten. Deshalb hoffen wir auf eine rege Beteiligung sowie Weiterempfehlung im Bekannten-, Freundes- und Kolleg:innenkreis.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren