Italien: In Echtzeit gegen rassistische Fußballfans

Kann man mit Gesichtserkennungstechnologie und Geräuschüberwachung Rassismus in Fußballstadien eindämmen? Vor der Corona-Pandemie war das der Plan der italienischen Regierung, berichtet Fabio Chiusi beim zwölften Stopp unseres AlgoRail durch Europa und fragt sich: Schießt Italien damit über das Ziel hinaus?

Während sich viele Menschen zu Beginn des Jahres 2020 zunehmend mit den diskriminierenden und rassistischen Auswirkungen von Gesichtserkennungstechnologie beschäftigten, überlegte Italien, Gesichtserkennungstechnologien in Fußballstadien einzusetzen, um Rassismus zu bekämpfen.

Damals stand das Thema im Mittelpunkt der Medienberichterstattung des Landes, vor allem wegen der wiederholten rassistischen Sprechchöre und Verunglimpfungen gegen den Schwarzen Fußball-Superstar Mario Balotelli aus Brescia.

Im Februar hatte der Minister für Jugendpolitik und Sport, Vincenzo Spadafora, die Nase voll und wollte Technologie einsetzen, um den Rassismus einzudämmen. Er kündigte an, dass die italienische Regierung im Begriff sei, neue Technologien zur Unterstützung der Arbeit der Polizeikräfte in Fußballstadien im ganzen Land zu erproben und einzusetzen. Und zwar nicht nur, um zu verhindern, dass Personen mit Platzverweis italienische Stadien betreten: Er wolle, dass neue Technologien rassistische Fans in Echtzeit ausfindig machen.

Auch wenn Spadafora nicht genau sagte, welche „neue Technologien“ er genau meinte, führten das andere aus: Der Chef des italienischen Fußballverbandes (Federazione Italiana Giuoco Calcio, FIGC), Gabriele Gravina, sprach davon, dass der Einsatz der Technologie zu einer hochauflösenden Gesichtserkennung von Personen führen wird.

Überwachung der Tribünen-Gespräche

Aber es geht nicht nur um die Gesichtserkennung: Der Plan sah auch die Einführung von Schallüberwachungssystemen vor. Bereits im Oktober 2019 hatte Gravina die Hypothese aufgestellt, dass „passive Radare“, die derzeit von Antiterroreinheiten verwendet werden, eingesetzt werden können. Die Systeme könnten private Gespräche zwischen Fans auf den Tribünen aufzeichnen, rassistische Äußerungen ausfindig machen und die Täter:innen durch Gesichtserkennung identifizieren.

Während verschiedene Medienberichte darlegten, dass einige Mitarbeiter:innen des Innenministeriums ernsthafte Zweifel an der Wirksamkeit solcher Technologien in realen Szenarien hatten, lobten andere sie als „neue Stufe des Antirassismus“.

Dann brach die Pandemie aus und alles wurde anders.

Vage Bestätigungen und viel Schweigen

Als Covid19 durch ganz Norditalien wütete, brachte die Regierung die Fußball-Liga am 10. März zum Stillstand. Der geplante Einsatz der Technologien wurde entscheidend verzögert, da die Stadien bis Juni für die Öffentlichkeit geschlossen blieben.

Doch bestätigte ein Sprecher des Ministeriums für Jugend und Sport in einem E-Mail-Verkehr im Mai 2020, dass versucht wird, eine Reihe von Instrumenten in den Stadien zu implementieren, die Rassismus verhindern sollen. In einem weiteren schriftlichen Austausch im September gab es keine Updates und es wurden keine weiteren Details auf die präzisen Fragen von AlgorithmWatch gegeben.

Das hat die Vereine nicht davon abgehalten, mit der Gesichtserkennung in den Stadien zu experimentieren. Dank Medienberichten wissen wir von Piloteinsätzen sowohl in Udine als auch in Neapel, wo im September 2019 190 Gesichtserkennungskameras installiert wurden.

Weitere Aufgabe für S.A.R.I.

Das Pilotprojekt in Udine leitete die wichtigste Neuerung ein. Wie in der ersten Ausgabe des Automating Society Reports ausführlich beschrieben, war ein „automatisiertes System zur Bilderkennung“ („Sistema Automatico di Riconoscimento Immagini“ oder „S.A.R.I.“) bereits von der italienischen Polizei zur Festnahme von Straftäter:innen im Einsatz. Es soll sowohl das Gesicht von Verdächtigen mit den Bildern in den Datenbanken der Strafverfolgungsbehörden abgleichen als auch eine Live-Gesichtserkennung aus Echtzeit-Video-Feeds ermöglichen.

Dieses System, das 2014 konzipiert und in verschiedenen Umgebungen eingesetzt wurde (vom Hafen von Bari bis zu einem Casino in Las Vegas), wurde im Juni 2019 im Stadio Friuli, Udine, vor dem Endspiel der U21-Europameisterschaft getestet. Ziel war es, die Überwachungsfunktion an den Eingangstüren zu erproben, um Fans fernzuhalten, denen der Zutritt auf Grund von einstweiligen Verfügungen verboten wurde.

AlgorithmWatch fragte wiederholt sowohl den FC Udinese als auch Reco 3.26, die in Apulien ansässige Entwicklungsfirma von S.A.R.I., nach den Ergebnissen dieses Testeinsatzes. Doch der Fußballklub delegierte alle Antworten an Reco 3.26 weiter und Reco 3.26 beantwortete nie irgendwelche Fragen.

Das Fehlen jeglicher öffentlichen Diskussion zu diesem Thema führt allerdings nicht dazu, dass der Einsatz von S.A.R.I kritischer hinterfragt wird. Es wird als Standard-Sicherheitsmaßnahme auch für andere Stadien wie von Inter und auch dem FC Mailand beschrieben. Die Pläne vom Inter- als auch dem Mailänder Fußballclub umfassen „Geolokalisierungs- und Schallsensoren“ sowie „Software, die in der Lage ist, abnormales Verhalten wie „Herumlungern“ oder „die plötzliche Anwesenheit eines Objekts an einem bestimmten Ort“ zu erkennen.

Vorsicht geboten

In den letzten Jahren haben die Beweise für ungenaue und diskriminierende Ergebnisse von Gesichtserkennungstechnologien zugenommen. Und diese Beweise sollten von Bedeutung sein, argumentiert der ehemalige Präsident der italienischen Datenschutzbehörde, Antonello Soro, in einem schriftlichen Interview mit AlgorithmWatch, das er noch während seiner Amtszeit gab.

In dem Interview betonte Soro, wie wichtig ein bedachter Einsatz algorithmischer Systeme sei. Insbesondere müssten sie mit dem Gesetz in Einklang gebracht werden und bedürften einer Folgeabschätzung für die Beeinträchtigung der Privatsphäre. Darüber hätte die italienische Datenschutzbehörde auch mit dem italienischen Fußballverband gesprochen.

Covid19-Pandemie als Wegbereiterin?

Weil es keine klaren Transparenzregeln gibt, wurde der Einsatz von Gesichtserkennungstechnologie immer öfter erprobt, ohne dass die Öffentlichkeit darüber informiert wurde. Dann brach die Covid19-Pandemie aus und der öffentliche Raum leerte sich.

So kam ein grundlegend neues Problem zum Vorschein: Wenn die Stadien wieder geöffnet werden, werden Fans eine Maske tragen müssen. Doch das reduziert die Genauigkeit der Gesichtserkennungstechnologie, wie eine kürzlich vom National Institute of Standards and Technology (NIST) durchgeführte Studie belegt. Was kann man da tun? Könnte die Gesichtserkennungstechnologie so sehr verbessert werden, dass sie auch maskierte Personen erkennen kann?

Italien ist natürlich nicht das einzige Land, das mit Gesichtserkennungstechnologien in Stadien experimentiert. Während Dänemark, Belgien und die Niederlande das System für Sicherheitskontrollen – mit unterschiedlichen Ergebnissen und rechtlichen Herausforderungen – einsetzen, wird für das Dodger’s Stadium in Los Angeles auch darüber nachgedacht, das System als Instrument einzusetzen, „um den Fans persönliche Erfahrungen zu ermöglichen“.

Und doch versucht bisher kein Land – mit Ausnahme Italiens – Gesichts- und Geräuscherkennungssysteme anzuwenden, um die Urheber:innen rassistischer Verunglimpfungen zu identifizieren.

Ob diese Idee tatsächlich umgesetzt wird, bleibt abzuwarten. Wir behalten die Entwicklungen weiter im Blick.

Das war’s für den zwölften Stopp unseres AlgoRails durch Europa, auf dessen Reise wir mehr darüber erfahren wollen, wie algorithmische Systeme in unserer europäischen Nachbarschaft eingesetzt werden. Nun fahren wir gen Norden und erkunden nächste Woche Estland.


Diese Story wurde von  Julia Gundlach  gekürzt und ins Deutsche übersetzt. Der ungekürzte Beitrag wurde auf der Webseite von AlgorithmWatch veröffentlicht.

Die Blogreihe AlgoRail ist Teil des Automating Society Reports 2020 von der Bertelsmann Stiftung und AlgorithmWatch, der im Herbst dieses Jahres veröffentlicht und von Dr. Sarah Fischer  koordiniert wird. Neben journalistischen Geschichten wie dieser, gibt der Report einen Überblick über verschiedene Anwendungsbeispiele algorithmischer Systeme sowie aktuelle Debatten, Policy Responses und wichtige Akteure in 15 Ländern. Eine erste Ausgabe des Reports ist im Januar 2019 erschienen.


Dieser Text ist lizenziert unter einerCreative Commons Namensnennung 4.0 International Lizenz.



Kommentar verfassen