Wenn per Computer automatisch entschieden wurde, fehlt es an effektiven Beschwerdemöglichkeiten für Betroffene. Deswegen hat AlgorithmWatch mit Unterstützung der Bertelsmann Stiftung die Plattform UNDING ins Leben gerufen. Im Gespräch mit Markus Overdiek erläutert Anna Lena Schiller von AlgorithmWatch, was es damit auf sich hat.

 

Immer öfter wird mit Unterstützung von algorithmischen Systemen über wichtige Aspekte unseres täglichen Lebens entschieden. Geht das gut?

Das ist wie immer im Leben: Es kommt ganz drauf an! Natürlich können uns algorithmische Systeme vieles in unserem Leben erleichtern. Denken wir nur an Navigationssysteme. Früher mussten wir noch Atlanten wälzen und Karten falten. Heute werden Handy oder Navi angeschaltet und schon werden wir mithilfe von Künstlicher Intelligenz (KI) automatisch von A nach B geführt.

Doch nur, weil Navis uns schnell zu unserem Ziel leiten, heißt das noch längst nicht, dass dies auch stets einwandfrei funktioniert. Die kürzest angezeigte Route kann Nachteile mit sich bringen. Beispielsweise dann, wenn eine Vielzahl von LKWs durch kleine Ortschaften gelenkt werden oder Autoverkehr in Fahrradstraßen stattfindet, die eigentlich nur für Anwohner:innen freigegeben sind.

Was kann in einer solchen Situation passieren, damit Betroffenen geholfen wird?

In einer idealen Welt würde es erst gar nicht so weit kommen. In der Realität gibt es jedoch häufig Probleme mit Datengrundlagen und -verarbeitung sowie mit der Zieldefinitionen des Systems. Und deshalb braucht es Möglichkeiten, um Einspruch einzulegen, wenn Betreiber:innen von Computersystemen irreführende oder gar diskriminierende Lösungen anbieten.

Optimal wäre es dann eigentlich, Beschwerden direkt bei den Anbieter:innen der algorithmischen Systeme einreichen zu können. Häufig gibt es diese Möglichkeit jedoch nicht und wenn doch, dann bleibt sie zu oft ohne Wirkung: Es wird entweder überhaupt nichts unternommen oder erst nach sehr langer Zeit. Für Betroffene von regem Autoverkehr in der normalerweise ruhigen Fahrradstraße ist das frustrierend und ein Gefühl der Ausweglosigkeit entsteht.

Hier kommt UNDING ins Spiel. Über UNDING können solche automatischen Entscheidungen gemeldet und angefochten werden. Als effektiver Botendienst gegenüber verantwortlichen Stellen bei großen Internetfirmen und Behörden schließt UNDING eine Lücke und verschafft berechtigten Anliegen von Menschen Gehör, wenn der Vorschlag vom Algorithmus negative Konsequenzen nach sich zieht.

Kannst Du das noch genauer erklären: Wie funktioniert UNDING konkret?

UNDING ist Anlaufstelle für alle, die von negativen Auswirkungen durch automatisierte Entscheidungen betroffen sind – also bei richtigen „Undingen“ eben. Damit man überhaupt erstmal weiß, ob Algorithmen dabei im Spiel sind, gibt es auf der UNDING-Webseite eine Übersicht zu Fällen, bei denen automatische Entscheidung eine Rolle spielt. Das reicht vom genannten Fahrradbeispiel über Terminsoftware, die eine frühestmögliche Vergabe von Impfterminen verhindert, bis hin zu rassistischen Fotoautomaten in Behörden, die die Gesichter von People of Color nicht erkennen.

Bei Betroffenheit in solchen Fällen bietet UNDING einfache Chat-Dialogfelder, über die das Problem eingegrenzt werden kann. Anhand dieser Meldung erstellt UNDING einen Text, der dann anonym an die verantwortliche Stelle übermittelt wird. Antwortet dort niemand, hakt UNDING immer wieder nach.

UNDING konkretisiert also das Problem, findet die richtigen Ansprechpartner:innen und unterstützt in der Kommunikation – damit algorithmische Undinge nach und nach beseitigt werden. Außerdem wollen wir zeigen, wie Unternehmen und Behörden auf diese Anfragen reagieren, wie lange es dauert, bis sie sich zurückmelden, und ob die Antwort für Betroffene zufriedenstellend ist. Deshalb lässt sich die Bearbeitung der gemeldeten Fälle am Schluss auch noch bewerten.

Ist das eigene Unding bisher noch nicht dabei, kann man uns zudem ganz unkompliziert per Mail oder Social Media schreiben und uns auf weitere Fälle hinweisen, die wir sukzessive implementieren.

Ende Februar ist die Beta-Version gestartet. Was ist seitdem alles passiert?

Wir haben UNDING bewusst als „Beta“ gestartet, also als eine Version, um Dinge auszutesten. Zentral dabei ist für uns die Einbindung des Feedbacks der Nutzer:innen, um die Anlaufstelle weiter zu verbessern. Die ersten Monate sind jetzt rum und wir haben viele gute Ideen bekommen, wie wir die Plattform weiterentwickeln können. Außerdem kommen laufend neue Fälle hinzu, in denen Menschen von automatischen Entscheidungen betroffen sind – auch Dank der hilfreichen Anregungen, die uns seit dem Start der Beta erreicht haben.

Und haben die bisherigen UNDING-Meldungen bereits Änderungen bewirken können?

Wir haben im Rahmen unserer journalistischen Berichterstattung mit Google und TomTom gesprochen und sie auf falsche Routenplanung durch Fahrradstraßen aufmerksam gemacht. Uns wurde mitgeteilt, dass die Naviführung durch mehrere Berliner Straßen daraufhin korrigiert wurde. Bis die neue Version implementiert ist, dauert es jedoch noch ein paar Monate.

Das ist natürlich ein schöner Teilerfolg, zeigt aber auch, wie langsam die Mühlen mahlen und dass es beständiges Nachhaken braucht, um hier Veränderung anzustoßen. In jedem Fall können wir alle unseren Beitrag dazu leisten, indem die eigene Betroffenheit von Algorithmen- und KI-Entscheidungen über UNDING gemeldet wird.

Gibst du uns zum Abschluss noch einen kleinen Ausblick: Was passiert in nächster Zeit?

Wir arbeiten an neuen Funktionen, etwa an einem Umfragetool. Damit wollen wir Themen ausleuchten, bei denen nicht immer ganz klar ist, ob und wo algorithmische Systeme zum Einsatz kommen. Ein konkretes Beispiel dafür sind Job-Bewerbungen. Wir wollen Menschen helfen zu verstehen, wo automatisch entschieden wird – und dafür brauchen wir die Erfahrungen von Nutzer:innen. Diesen Ansatz der Crowdrecherche möchten wir in nächster Zeit weiter ausbauen. Wer das Gefühl hat, durch den Einsatz von Algorithmen und KI benachteiligt oder diskriminiert zu sein, kann sich gerne bei uns melden!


UNDING-Kontaktdaten:


Dieser Text ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.