Algorithmen gegen häusliche Gewalt: Können automatisierte Risikobewertungen helfen, bedrohte Frauen besser zu schützen?

Es klingt vielversprechend, das gravierende Problem von häuslicher Gewalt gegen Frauen durch eine algorithmengestützte Risikobewertung zu adressieren. Ein Mangel an Transparenz und Erklärbarkeit verhindert jedoch, dass diese Instrumente tatsächlich zur Eindämmung von häuslicher Gewalt gegen Frauen beitragen.

2020 wurden 119.164 Fälle von häuslicher Gewalt an Frauen[1] in heteronormativen Beziehungen in Deutschland durch das Bundeskriminalamt erfasst, 139 Frauen starben durch Femizide. Meist werden die Opfer durch Ehepartner, Lebensabschnittsgefährten oder ehemalige Partner:innen angegriffen. Eine Recherche von CORREKTIV.Lokal zeigt: Seit Beginn der Pandemie verschärft sich dieses Problem, immer mehr Frauenhäuser kommen an ihre Kapazitätsgrenzen. Frauenrechtsorganisationen in Deutschland beklagen dabei den fehlenden breiten Diskurs zu diesem Thema. Die gesellschaftliche und strukturelle Relevanz wird zu häufig übersehen und als privates Problem abgetan. Die Gewalterfahrungen haben nach den kurzfristigen, jedoch auch langfristige Folgen für die gesellschaftlichen Teilhabechancen von Frauen und schließen sie oft sowohl kulturell als auch wirtschaftlich aus.

Eine zentrale Empfehlung von Frauenrechtsaktivist:innen ist eine schnellere Analyse von Hochrisikofällen. Dies könnte unter anderem durch den Einsatz von algorithmischen Systemen ermöglicht werden, die in einigen Ländern seit mehreren Jahren eingesetzt werden. Sie sollen dabei Mitarbeiter:innen in der Frauenhilfe und in Polizeibehörden unterstützen, Gewalttäter besser einzuschätzen und passende Maßnahmen abzuleiten.

Erste algorithmische Risikobewertungen bereits in Deutschland im Einsatz

Mit dem Ontario Domestic Assault Risk Assessment (ODARA) aus Kanada und dem Violence Risk Appraisal Guide-Revised (VRAG-R) aus den USA gibt es seit 2006 die ersten Ansätze zur automatisierten Analyse von Hochrisikofällen bei Partnerschaftsgewalt gegen Frauen in heteronormativen Beziehungen. Die Systeme sollen vorhersagen, wie wahrscheinlich Partner in einer Beziehung wiederholt gewalttätig werden. VioGén aus Spanien ist eines der ersten europäischen Beispiele und seit 2007 im Einsatz. Mit der computergestützten Anwendung DyRiAS (Dynamisches Risiko Analyse System) gibt es seit 2012 auch einen Anbieter aus Deutschland. Das Tool, welches vom kommerziellen Hersteller Institut für Psychologie und Bedrohungsmanagement in Darmstadt entwickelt wurde, kommt in Frauenhäusern in Singen und Weimar sowie in einigen Polizeibehörden in der Schweiz und Österreich zum Einsatz.

Psychologische Forschung als Grundlage für die automatisierten Risikobewertungen

Das Grundprinzip dieser Risikoanalysesysteme ist bei den verschiedenen Anbietern gleich. Im Fall von DyRiAS werden die Nutzer:innen der Anwendung – also Mitarbeiter:innen in Frauenhäusern oder bei der Polizei – vor der erstmaligen Nutzung zunächst geschult und erhalten dann eine Lizenz für die Anwendung. Meldet sich eine Frau aufgrund von einer Gewalterfahrung in der heteronormativen Beziehung bei der Polizei oder einem Frauenhaus, gehen zuständige Mitarbeiter:innen (Nutzer:innen) mit ihr vor Ort einen Onlinefragebogen durch. Zu jeder der 39 Fragen gibt es für die geschulten Nutzer:innen  weitere Informationen sowie Quellenverweise. Im Fragebogen wird unter anderem erfasst, ob es bereits vorher zu Gewalt in der Beziehung kam und ob es negative Einschnitte gab, die die Konflikt- und Gewaltdynamiken über die Zeit verstärkt haben könnten (z. B. plötzliche Arbeitslosigkeit). So sollen die individuellen und paarbezogenen Faktoren und Muster abgeleitet werden, die die Entwicklung von Gewalt begünstigt haben.

Das sechsstufige Risikomodell setzt sich dann daraus zusammen, dass jeder Antwort eine Risikostufe zwischen 0 und 5 zugeordnet wird. Sobald mehr als 55 Prozent der Risikoindikatoren beantwortet wurden, kann basierend auf einem mehrschichtigen Regelwerk computergestützt ein statistisches Scoring ermittelt werden, das einen Hinweis auf die Rückfälligkeit des Gewalttäters gibt. Der der dann vorliegende Risikoreport, gibt eine Gesamtübersicht zu der Situation, dem Mindset und dem Verhalten des gewaltausübenden Intimpartners sowie zu den besonders beunruhigenden Faktoren, die von anderen Tätern vor zielgerichteten Gewalttaten gezeigt wurden. Die endgültige Einschätzung der Auswertung muss dann durch die geschulten Nutzer:innen in den Frauenhäusern und Polizeibehörden erfolgen. Sie entscheiden auch, ob die Analyse nur beim Erstkontakt oder auch noch einmal nach einem bestimmten Zeitraum durchgeführt wird.

Positive Berichte aus Frauenhäusern

Mitarbeiter:innen aus den Frauenhäusern in Singen und Weimar geben in Gesprächen an, dass die Systeme eine Unterstützung für die tägliche Arbeit sind. Sie betonen, dass durch den Fragebogen der Fokus von den gewalterfahrenden Frauen weggenommen und auf das Verhalten der gewaltausübenden Intimpartner:innen gelegt wird. Die jahrelange Erfahrung der Mitarbeiter:innen wird durch das Risikoscoring mit Zahlen bestätigt und bietet damit eine Unterstützung, weitere Maßnahmen zu treffen. Auch vor Gericht oder anderen involvierten Behörden kann die Risikobewertung die Beweislast erhöhen – gleichzeitig hat sie natürlich keine Verbindlichkeit.

Algorithmeneinsatz als Chance?

Die Wirkung des Algorithmeneinsatzes vor dem Hintergrund der meist sehr individuellen und komplexen Situationen zu beurteilen, ist ausgesprochen schwierig. Um die soziotechnische Einbettung richtig abschätzen zu können, braucht es:

  • Öffentlich einsehbare Informationen über den Einsatz: Automatisierte Risikobewertungen sind in diesem Feld seit vielen Jahren im Einsatz, doch die einsetzenden Stellen veröffentlichen kaum Informationen dazu. Ob so ein System genutzt wird, erschließt sich oft nur durch intensive Recherchen. Diese fehlende Transparenz ist kein Einzelfall: Der Einsatz von algorithmischen Systemen insbesondere von öffentlichen Stellen wird oft kaum oder nur unzureichend dokumentiert.
  • Transparente Festlegung von Zielen: Dabei sollten insbesondere die Ziele, die durch den Einsatz von einem algorithmischen System erreicht werden sollen, öffentlich dargelegt werden. Soll der Einsatz vor allem die Effizienz steigern oder auch zu konsistenteren Entscheidungen führen? Sollen die Entscheidungen durch die Anwendung fairer werden? Diese Fragen sind vor jedem Algorithmeneinsatz zu beantworten, um die Effekte des Einsatzes gegen einen Richtwert bewerten zu können.
  • Fundierte Analysen über den Einsatz: Das Problem ist oft aber nicht nur die fehlende Veröffentlichung von Informationen, sondern auch, dass diese gar nicht erst erhoben werden. In Singen und Weimar gibt es keine Daten oder Statistiken darüber, ob der Einsatz von DyRiAS geholfen hat, mehr Frauen zu schützen, ob und wie die Risikobewertungen Gerichtsentscheidungen beeinflusst haben oder ob Mitarbeiter:innen entlastet wurden. Somit beruht jede Aussage darüber, ob der Technologieeinsatz sinnvoll ist, lediglich auf einem Bauchgefühl.
  • Externe Evaluationen: In sensiblen gesellschaftlichen Bereichen sollte aber mehr als nur ein Bauchgefühl darüber entscheiden, ob Algorithmen eingesetzt werden. Denn es gibt genug Beispiele, wie fehleranfällig Prognosen über die Zukunft sind und wie Algorithmeneinsätze zu Diskriminierungen führen können. Daher braucht es externe Evaluationen über die Algorithmeneinsätze, in denen kritisch untersucht wird, welche gewünschten und unerwünschten Effekte diese haben. Bei den Anwendungen zu Gewalt gegen Frauen ist bisher nur eine externe Evaluation bekannt: Die spanische Organisation ETICAS und die Stiftung Ana Bella haben eine externe Prüfung beauftragt, um herauszufinden, ob VioGén das Gefährdungsrisiko unter- oder überschätzt und ob das Tool bestimmte soziale Gruppen diskriminiert. Die Ergebnisse wurden in einem kürzlich erschienen Bericht veröffentlicht. Eine externe Prüfung könnte bei all diesen Anwendungen – am besten noch vor der regulären Inbetriebnahme – der Standard sein.

Weitere Orientierung darüber, wie Algorithmen richtig eingesetzt werden, können die Algo.Rules geben. Die Gestaltungskriterien, die von der Bertelsmann Stiftung mit dem iRights.Lab und über 500 Beteiligten entwickelt worden sind, richten sich dabei nicht nur an die Entwickler:innen, sondern an alle Verantwortlichen, die an der Entwicklung und dem Einsatz von Algorithmen beteiligt sind.

Risiken und Chancen im Zusammenspiel bewerten

Besonders viel Kritik wird daran geübt, dass Polizeibehörden algorithmische Risikobewertungen in ihrer Arbeit einsetzen, denn damit gehen andere Prozesse einher als bei Frauenhäusern. In der Schweiz, wo dies der Fall ist, wird öffentlich bemängelt, dass es noch keine rechtliche Grundlage für den Einsatz dieser algorithmischen Systeme gibt – viele Kantone müssten zunächst ihre Polizeigesetze anpassen. Eine Studie zum Einsatz Künstlicher Intelligenz in der Verwaltung von AlgorithmWatch Schweiz und der Universität Basel, die von der Staatskanzlei Zürich in Auftrag gegeben wurde, zeigt, dass das Tool zur Risikoüberschätzung neigt. Aus einer Stichprobe von DyRiAS-Daten wurde deutlich, dass 82 Prozent der Täter:innen in den beiden höchsten Risikostufen eingeordnet wurden, davon aber nur 28 Prozent ein weiteres Mal ein Gewaltdelikt verübt hätten. Der Kanton Zürich hat sich daher 2018 dafür entscheiden, ein eigenes Tool namens Octagon zu entwickeln.

Klar ist, das algorithmische Systeme aus unserem Alltag nicht mehr wegzudenken sind. Nur wenn die Risiken eingehegt und die notwendigen Spielregeln von allen Verantwortlichen eingehalten werden, bieten sich neue Chancen fürs Gemeinwohl. Um die Potenziale algorithmischer Systeme für das Gemeinwohl bestimmen zu können, braucht es aber deutlich mehr Daten, Evaluationen und Risikoanalysen zu den Anwendungen.

[1] Nichtbinäre Geschlechterkategorien werden bisher noch nicht statistisch erfasst.



Kommentar verfassen