Die algorithmische Kristallkugel der US-Kinderschutzbehörden

Ein Algorithmus soll Kindesmisshandlung vorhersagen, damit eingeschritten wird, bevor Taten passieren. Mit dieser Hoffnung nutzen US-Behörden die Prognosesoftware Rapid Safety Feedback. Die Ergebnisse sind ernüchternd: Das Versprechen besserer Prävention hat sich bislang nicht erfüllt – wegen blinden Vertrauens in Technik und weil der Wille fehlt, grundlegende Probleme anzugehen.

Eine Polemik: Wie man mit einem würfelnden Schimpansen Terroristen fängt

Überlegungen zu den Zwischenergebnissen der Gesichtserkennungs-Pilotstudie am Südkreuz Ist das Überwachungssystem am Berliner Bahnhof Südkreuz geeignet, gesuchte Verdächtige im Strom der Passanten zu erkennen? Das testet das Bundesinnenministerium in einer Pilotstudie. Die Zwischenergebnisse stellt das Ministerium als Erfolg dar und verlängert das Projekt. Zumindest die veröffentlichten Zwischenergebnisse liefern dafür keinen überzeugenden Grund. Sie sagen nichts […]

When Machines Judge People

Beim Global Learning Network Convening 2017, einer Initiative der Non-Profit-Organisation America Achieves, habe ich letzte Woche in Boston über den Einfluss von künstlicher Intelligenz und algorithmischen Systemen auf Gesellschaft und Bildung gesprochen. Es ist ein schmaler Grat zwischen dem großen Potenzial für mehr Chancengerechtigkeit und der Gefahr, dass bestehende Ungleichheiten durch neue Technologie verstärkt werden. […]

Wenn Algorithmen irren, sind Menschen verantwortlich

Menschen entscheiden nicht per se fairer als Maschinen. Deshalb schadet das Trugbild vom Gegensatz Mensch – Maschine der Debatte über algorithmisch Entscheidungssysteme. Es verdeckt die eigentlichen Herausforderungen. Zum Beispiel: Wie versichern wir uns der Angemessenheit der in den Systemen implementierten Ziele, bevor sie im Einsatz sind?  Der Computer sagt nein! Das ist die Pointe vieler […]