Algorithmenethik Erlesenes #96

Wie sollte man den Einsatz Künstlicher Intelligenz (KI) regulieren? Nicht nur in Europa werden solche Technologien, die vermeintlich Persönlichkeiten aus Videomaterial herauslesen wollen, zurzeit genauer unter die Lupe genommen. Was es damit auf sich hat, erfahren Sie in der heutigen Ausgabe von Erlesenes. Außerdem: Wie können wir mit Algorithmen die Tierwelt besser verstehen? Und wofür setzt das Landeskriminalamt (LKA) in Niedersachen KI künftig ein? Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Kinderpornos: Künstliche Intelligenz hilft Polizei

16. Januar 2020, NDR

Ermittlungen zu Kinderpornografie bringen für Polizeikräfte erhebliche psychische Belastung sowie enormen Arbeitsaufwand mit, da bei Verdachtsfällen sichergestelltes Material vollständig gesichtet werden muss. Ab Februar 2020 soll durch den Einsatz von Künstlicher Intelligenz das Landeskriminalamt (LKA) in Niedersachsen bei dieser Aufgabe unterstützen, berichtet der NDR. Polizeiinspektionen im Land können die Software im Rahmen eines einjährigen Pilotprojektes einsetzen, um Material vorselektieren zu lassen. In einer vorausgegangenen zweijährigen Testphase habe die Trefferquote der Software bei der Erkennung von Dateien mit nicht pornografischem Inhalt laut LKA bei 96 Prozent gelegen. Das LKA erhoffe sich eine deutliche Reduzierung der Mediendateien, die die Expert:innen sichten müssen, sowie einen schnelleren Abschluss von Ermittlungsverfahren. Der Algorithmus soll während des Pilotprojekts und auch im Falle eines fortgeführten Einsatzes kontinuierlich überprüft und trainiert werden. Man vertraue den Maschinen nicht blind, so LKA-Präsident Friedo de Vries.


🔖Künstliche Intelligenz in der Medizin muss besser sein als der Status quo

(Artificial Intelligence Makes Bad Medicine Even Worse), 10. Januar 2020, Wired

Die Zahl der vielversprechenden Anwendungen von Künstlicher Intelligenz (KI) im medizinischen Bereich wächst stetig. Doch dies allein garantiere nicht, dass Patient:innen unter dem Strich besser dastehen. Es existiere die Gefahr, dass KI Phänomene wie etwa Überbehandlung verstärkt, warnt die Wissenschaftsjournalistin Christie Aschwanden. Als Beispiel nennt sie die Brustkrebsfrüherkennung. Wenn eine KI darin brilliert, mögliche Anzeichen für eine zukünftige Krebserkrankung aufzuspüren, die aber statistisch gesehen unwahrscheinlich ist, wäre eine „ bessere” Erkennung solcher Anzeichen nicht eine pauschal positive Entwicklung. Auch dass smarte Uhren und Gesundheits-Apps in der Lage sind, vermeintliche Warnzeichen für schwere Krankheiten zu diagnostiziere, bedeute nicht, dass die Mehrzahl dieser Personen tatsächlich eine akute Untersuchung benötigen würde, so Aschwanden. Damit wir wirklich von KI in der Medizin profitieren, sei es elementar, nicht den Status quo zu zementiert. Es sei zunächst notwendig zu wissen, welche Personen den größten Nutzen aus verfügbaren Behandlungen ziehen würden. Apropos Gesundheits-App: Dazu empfehlen wir auch unser Papier zu Chancen und Herausforderungen für Patient:innen.


🔖Umstrittene Software für Bewerbungsgespräche 

(There’s a new obstacle to landing a job after college: Getting approved by AI), 15. Januar 2020, CNN Business

Die Karrierezentren US-amerikanischer Hochschulen sehen sich mit einer neuen Aufgabe konfrontiert: Studierende auf Bewerbungsgespräche vorzubereiten, bei denen Kandidat:innen in eine Kamera sprechen und anschließend von Künstlicher Intelligenz (KI) bewertet werden. Dies erfahren Leser:innen dieses Berichts von CNN-Journalistin Rachel Metz. Zentrales Objekt ihrer Reportage ist das umstrittene Unternehmen HireVue, dessen Technologie Firmen automatisierte Video-Bewerbungsgespräche ermöglicht, auf Wunsch auch mit dem Versprechen der Analyse von Emotionen und Persönlichkeitsmerkmalen anhand des Gesichtsausdrucks. Die Dienste der Firma sind umstritten. Nach Ansicht von Kritiker:innen bestehen große Diskriminierungsrisiken sowie Zweifel an der Effektivität des Verfahrens. Expert:innen vom AI Now Institute der New York University fordern in ihrem jüngsten Jahresbericht ein Verbot derartiger Technologie für sensible Bereiche (siehe Erlesenes #95). Aktuell gleiche die Situation dem “Wilden Westen”: Studierende seien Versuchskaninchen für einen nicht erprobten, zweifelhaften Mechanismus zur Bewertung von Bewerber:innen, schreibt Metz.


🔖EU erwägt Verbot von Gesichtserkennung

19. Januar 2019, Golem

Ein vom Onlinemagazin EURACTIV veröffentlichtes Dokument mit Vorschlägen der EU-Kommission zum künftigen Umgang Künstlicher Intelligenz (KI) sorgte vor wenigen Tagen für Schlagzeilen. Der Grund: Die Autor:innen des Papiers kommen unter anderem zu dem Schluss, dass der Einsatz von Gesichtserkennungstechnik durch staatliche oder private Akteure in der Öffentlichkeit für mehrere Jahre verboten werden müsse. Diese Zeit würde man dann dazu nutzen wollen, eine solide Methodik sowie ein mögliches Risikomanagement zu entwickeln, um die Auswirkungen dieser Technik einzuschätzen und EU-Bürger:innen vor Missbrauch zu schützen. Das Papier räume ein, dass ein Bann „die Entwicklung und Anwendung der Technik wohl hemmen würde”, schreibt Golem-Redakteur Friedhelm Greis. Das vollständige Weißbuch soll im Februar 2020 vorgestellt werden, wie EURACTIV-Journalist Samuel Stolton in einem Artikel zum Papier schreibt. Er beleuchtet auch einige weitere inhaltliche Punkte des Dokuments, darunter die verschiedenen vorgeschlagenen Optionen zur Regulierung von Gesichtserkennung.


🔖Hund, Katze, Maus: Algorithmen sollen Menschen helfen die Tierweltbesser zu verstehen

(Say Woof? AI in Animal Language Translation), 18. Januar 2020, Synced

Künstliche Intelligenz (KI) kann Menschen dabei helfen, Tiere besser zu verstehen, erklärt Linyang Yu in einem Artikel im Onlinemagazin Synced. Analog zu Computerlinguistik-Algorithmen, die Muster menschlicher Sprache identifizieren, lassen sich auch Kommunikationsformen von Tieren katalogisieren und bestimmten Ängsten, Schmerzen und Bedürfnissen zuordnen – so lautet zumindest die den von Yu genannten Projekten zugrunde liegende Prämisse. Sie nennt beispielsweise ein junges Unternehmen, das an einer Übersetzungs-App für verbale Kommunikation sowie Körpersprache von Hunden arbeitet, sowie ein Forschungsprojekt des Georgia Institute of Technology, das Stresssituationen von Hühnern anhand ihrer Laute erkennt. Ein weiteres Einsatzgebiet sei der Einsatz von Computerlinguistik beim Schutz von Elefanten vor Wilderern, da die Tiere in entsprechenden Gefahrensituationen prägnante Geräusche abgeben. Noch sei allerdings unklar, in welchem Maße Algorithmen tierische Kommunikation am Ende tatsächlich entziffern können, so Yu.


🔖In eigener Sache: Nominierung zum Wirtschaftsblog des Jahres

In eigener Sache: Wir freuen uns über die Nominierung zum Wirtschaftsblog des Jahres. Auf algorithmenethik.de diskutieren wir regelmäßig über die sozialen Implikationen von Algorithmen und zeigen auf, welchen


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen