Wie Algorithmen Menschen vor einem frühzeitigen Tod bewahren können

In Arztserien wie Doctor House oder ER ist es eine typische Szene: Ein Alarmsignal tönt und hektisch eilen Mediziner herbei, um den Patienten wiederzubeleben. Doch was wäre, wenn die Warnmeldung schon einige Stunden vor dem lebensbedrohlichen Kammerflimmern einsetzt? Ein solches System hat vor kurzem die US-Behörde Food and Drug Administration zugelassen. „FDA genehmigt Algorithmus, um […]

Skype-Interview: 3 Fragen an … Jules Polonetsky, Future of Privacy Forum

  Jules Polonetsky ist CEO des Future of Privacy Forum. Die Non-Profit Organisation aus Washington, DC setzt sich mit den Herausforderungen neuer Technologien auseinander sowie mit der Frage, wie Datenschutz weiterentwickelt werden kann, um den neuen Anforderungen gerecht zu werden. Sie arbeitet unter anderem zu den Themen Big Data, Connected Cars und Internet der Dinge […]

Wo Maschinen irren können – Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung

Der Entwicklungsprozess von algorithmischen Entscheidungssystemen ist lang und eine große Anzahl unterschiedlicher Akteure ist daran beteiligt. Deshalb können an vielen Stellen Fehler passieren – die meisten lassen sich aber vermeiden oder beheben. Katharina Zweig beschreibt anschaulich, wie algorithmische Systeme derzeit entwickelt und eingesetzt werden, und zeigt Verantwortlichkeiten sowie potenzielle Fehlerquellen auf. Wo algorithmische Systeme gebaut […]

Der Computer muss sich am Menschen messen lassen – Ein Gespräch mit Katharina Zweig

Katharina Zweig, Professorin für Graphentheorie und Analyse komplexer Netzwerke an der TU Kaiserslautern, sprach mit Henrik Brinkmann und Benjamin Dierks über Demokratiefragen im Zeitalter der Digitalisierung, das Transparenz-Problem der Algorithmen sowie die Notwendigkeit staatlicher Regulierung. Dies ist ein Ausschnitt aus einem Interview, welches als Teil des Buches „Wachstum im Wandel. Chancen und Risiken für die Zukunft […]

Die algorithmische Kristallkugel der US-Kinderschutzbehörden

Ein Algorithmus soll Kindesmisshandlung vorhersagen, damit eingeschritten wird, bevor Taten passieren. Mit dieser Hoffnung nutzen US-Behörden die Prognosesoftware Rapid Safety Feedback. Die Ergebnisse sind ernüchternd: Das Versprechen besserer Prävention hat sich bislang nicht erfüllt – wegen blinden Vertrauens in Technik und weil der Wille fehlt, grundlegende Probleme anzugehen.

Eine Polemik: Wie man mit einem würfelnden Schimpansen Terroristen fängt

Überlegungen zu den Zwischenergebnissen der Gesichtserkennungs-Pilotstudie am Südkreuz Ist das Überwachungssystem am Berliner Bahnhof Südkreuz geeignet, gesuchte Verdächtige im Strom der Passanten zu erkennen? Das testet das Bundesinnenministerium in einer Pilotstudie. Die Zwischenergebnisse stellt das Ministerium als Erfolg dar und verlängert das Projekt. Zumindest die veröffentlichten Zwischenergebnisse liefern dafür keinen überzeugenden Grund. Sie sagen nichts […]

When Machines Judge People

Beim Global Learning Network Convening 2017, einer Initiative der Non-Profit-Organisation America Achieves, habe ich letzte Woche in Boston über den Einfluss von künstlicher Intelligenz und algorithmischen Systemen auf Gesellschaft und Bildung gesprochen. Es ist ein schmaler Grat zwischen dem großen Potenzial für mehr Chancengerechtigkeit und der Gefahr, dass bestehende Ungleichheiten durch neue Technologie verstärkt werden. […]