Algorithmenethik Erlesenes #91

Wie kann der öffentliche Sektor algorithmische Systeme so einsetzen, dass sie dem Gemeinwohl dienen? Wie so oft, kommt es vor allem auf das Zusammenspiel von Mensch und Maschine an. Die Beiträge in dieser Ausgabe gehen dieser Frage aus sehr unterschiedlichen Perspektiven nach. Außerdem: Kommt der Algorithmen-TÜV? Erreicht Künstliche Intelligenz (KI) die Schöpfungshöhe? Diskutieren sie mit – auf Twitter (@algoethik) oder über unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


🔖Algorithmen im öffentlichen Sektor: Wie Mensch und Maschine zusammenarbeiten 

(Decision-making in the Age of the Algorithm), 18. November 2019, Nesta

Damit der zunehmende Einsatz von Algorithmen im öffentlichen Sektor konstruktiv und gesellschaftlich sinnvoll gestaltet wird, müssen Behördenangestellte die neuen Software-Tools bestmöglich einsetzen, konstatiert Thea Snow, Expertin im Bereich Innovation bei der britischen Innovationsstiftung Nesta. Doch nicht selten fühlen sich Mitarbeiter:innen unsicher im Umgang mit neuer (KI-)Software, die ihnen bei ihren Entscheidungen assistieren soll. Snow hat deshalb einen Leitfaden für die Zusammenarbeit zwischen Mensch und Maschine erstellt. Im Kern gehe es darum, die statistischen Fähigkeiten algorithmischer Werkzeuge mit der persönlichen Intuition und Erfahrung der Spezialist:innen zu kombinieren. Nach Ansicht von Snow kann dies erreicht werden, indem der notwendige Kontext vermittelt, ein Verständnis für die Funktionsweise der Software geschaffen und gleichzeitig eine menschliche Handlungsautonomie sichergestellt wird.


🔖Entscheidungsmaschinen

(Decision Machines mission statement), November 2019, The Bureau of Investigative Journalism

Wenn algorithmische Systeme von staatlichen Institutionen verwendet werden, ist der Einfluss auf Bürger:innen enorm. Wenn so viele Menschen tangiert werden, aber noch immer so wenig verstanden wird, braucht es investigativen Journalismus, schreibt die Redaktion des Bureau of Investigative Journalism. Die nicht gewinnorientierte britische Organisation hat sich eben dieser Form des Journalismus verschrieben und will mit der neuen Reihe „Entscheidungsmaschinen“ näher beleuchten, wie Big Data und Künstliche Intelligenz das Leben von uns allen beeinflussen. In einem der ersten Artikel berichtet der Journalist und Wissenschaftler Crofton Black über einen Algorithmus, der empfehlen soll, welche Insass:innen in welchem britischen Gefängnis untergebracht und wie stark sie bewacht werden sollen. Kritiker:innen befürchten laut Black, dass in der Folge nicht weiße Häftlinge häufiger unter Hochsicherheitsvorkehrungen gestellt werden – ungeachtet, ob dies tatsächlich notwendig ist. Tatsächlich soll das neue Instrument menschliche Entscheidungen nur unterstützen und erfordert dafür eine intensive Auseinandersetzung der Mensch-Maschine-Interaktion.


🔖Künstliche Intelligenz: „Das ist noch kein TÜV wie fürs Auto“

18. November 2019, Zeit Online

Das Bundesministerium für Arbeit und Soziales (BMAS) plane eine Art TÜV für die Anwendung Künstlicher Intelligenz (KI) in deutschen Unternehmen – so lautete vor einigen Tagen die Schlagzeile. Doch mit der typischen TÜV-Prüfstelle wie beim Auto habe das Vorhaben zunächst nichts zu tun, verdeutlicht der zuständige Staatssekretär Björn Böhning im Interview mit Meike Laaff, Redakteurin bei Zeit Online. Vorläufig gehe es darum, zu untersuchen, wie weit die Durchdringung mit KI in Deutschland ist, was sie derzeit überhaupt kann und wo sie eingesetzt wird. Daraus wolle man dann Vorschläge für einen Ordnungsrahmen ableiten. Böhning ist aber der Ansicht, dass Deutschland einen KI-TÜV mit einer entsprechenden Institution benötigen wird. Eine häufig diskutierte Position, die unter anderem von Wissenschaftler:innen wie Katharina Zweig kritisch eingegrenzt wird. Denn nicht alle algorithmischen Systeme müssen gleichermaßen eine Kontrolle erfahren, wie die Zweig‘sche Risikomatrix darlegt. Passend zum Thema noch ein Hinweis: Das Konzept eines Algorithmen-TÜV und andere Ansätze, um algorithmische Prozesse in den Dienst der Gesellschaft zu stellen, finden sich auch in unserem Lösungspanorama von Konrad Lischka und Julia Krüger.


🔖Urheberrecht und Künstliche Intelligenz: US-Behörde will Klarheit

(The USPTO wants to know if artificial intelligence can own the content it creates), 13. November 2019, The Verge

Sollten Werke, die Künstliche Intelligenz (KI) ohne aktives Einwirken von Menschen generiert, nach den gleichen Regeln urheberrechtlich geschützt werden wie die Kreationen menschlicher Urheber:innen? Diese und andere Fragen zum Umgang mit Urheberrecht und Autorenschaft im Kontext von Künstlicher Intelligenz stellt sich die US-Patent- und Urheberrechtsbehörde United States Patent and Trademark Office (USPTO). Derzeit bittet die Institution Bürger:innen, ihre Kommentare und Ideen zum Thema einzusenden, wie Dani Deahl beim Onlinemagazin The Verge schreibt. An der Schnittstelle von Urheberrecht und KI gibt es bereits seit Jahren Diskussionen in den Staaten. Bislang mangelt es an eindeutigen juristischen Regeln, unter anderem aufgrund von Schwierigkeiten bei der Abgrenzung. So müsse man beispielsweise Prozesse, bei denen Menschen lediglich eine Schaltfläche betätigen und bei denen die KI dann die Arbeit übernimmt, anders bewerten als solche, bei denen der Mensch kontinuierlich in den Vorgang involviert ist. Die europäische Diskussion würde aufgrund der urheberrechtlichen Unterschiede in der Rechtsordnung wohl anders geführt werden.


🔖KI findet Wege, um staatliche Internetzensur zu umgehen

(New Artificial Intelligence System Automatically Evolves to Evade Internet Censorship), 13. November 2019, University of Maryland

Forscher:innen der University of Maryland um den Assistenzprofessor Dave Levin haben einen Algorithmus entwickelt, der in der Lage sein soll, staatliche Zensurmaßnahmen von Internetzugängen zu umgehen, informiert die Universität. Die „Geneva” genannte Software manipuliert die Art und Weise, wie Datenpakete von einem spezifischen Rechner versendet werden, um sie so vor typischen Zensursystemen zu verbergen. Besonders an dem Algorithmus ist, dass er kontinuierlich und selbstständig neue Ansätze ausprobiert und sich dadurch an die stetig aktualisierten Blockiermaßnahmen anpassen kann. Geneva entdeckt auch Umgehungsmethoden, die Expert:innen bislang gar nicht bekannt waren. Erfolgreich erprobt haben die Wissenschaftler:innen Geneva in Live-Tests auf Rechnern in China, Indien und Kasachstan. Sie planen, die gesammelten Daten und ihren Code frei zugänglich zu machen, und hoffen, eine ähnliche Lösung künftig auch direkt auf Servern installieren zu können, die zensierte Inhalte bereitstellen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen