Algorithmenethik Erlesenes #35

Liebe Leser,
wir möchten uns mit der heutigen Ausgabe in die Sommerpause verabschieden. Im August wird es keinen Newsletter geben und somit geht es nach der Pause am 6. September 2018 weiter. Bis dahin ruht unser Projekt „Ethik der Algorithmen“ nicht, wir arbeiten u. a. an unserer Professionsethik für Algorithmiker weiter. Wem es in der Zwischenzeit nach Algorithmen-Infos durstet, kann uns gerne auf unserem Blog besuchen. Wir wünschen Ihnen eine schöne Sommerzeit!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Globale Lösungen für Risiken Künstlicher Intelligenz (PDF)

(Classification of Global Solutions for the AI Safety Problem), 2018, GoodAI

In der Debatte über Gefahren Künstlicher Intelligenz (KI) müsse zwischen “lokalen” und “globalen” Lösungen unterschieden werden, schreiben die Wissenschaftler Alexey Turchin und David Denkenberger in diesem Papier. Lokale Lösungen fokussierten sich auf Aspekte einer spezifischen KI oder Disziplin und seien zwar wichtig, doch um die weltweiten Konsequenzen des Vorstoßes von KI in immer mehr Bereichen in konstruktive Richtungen zu leiten und die gerne zitierte bösartige KI zu verhindern, brauche es globale Ansätze. Turchin und Denkenberger kategorisieren ein breites Spektrum an globalen Ansätzen und Vorschlägen von bekannten Persönlichkeiten für die Schaffung einer konstruktiven und friedlichen KI-Zukunft und prüfen sie auf Validität und Umsetzbarkeit. Die Arbeit gehört zu den Siegern eines Ideenwettbewerbs der Initiative GoodAI und wurde mit einem Preisgeld von 3000 US-Dollar honoriert. Wer sich für lokale Lösungsansätze interessiert, dem können wir unser im Mai veröffentlichtes Arbeitspapier „Damit Maschinen den Menschen dienen“ ans Herz legen.


🔖Perspektiven auf das Eckpunktepapier für die neue KI-Strategie der Bundesregierung

18. Juli 2018, Zeit Online

Deutschland soll zum weltweit führenden Standort für Künstliche Intelligenz (KI) werden – so lautet die zentrale Zielsetzung eines Eckpunktepapiers für eine nationale KI-Strategie (Download), das nun vom Kabinett abgesegnet wurde. Dirk Peitz, Digitalredakteur bei Zeit Online, analysiert das Papier und vergleicht es mit den Strategien der zwei derzeit weltweit führenden Nationen im KI-Sektor, nämlich den USA und China. Peitz merkt an, dass die ethischen Risiken von KI in den Eckpunkten eher defensiv beschrieben sind, während in der Strategie der Obama-Administration sehr deutlich wird, dass KI-Systeme ethischen, rechtlichen und gesellschaftlichen Zielen entsprechen müssten. Gegenüber USA und China liege Deutschland nicht nur deutlich zurück, sondern sei aufgrund des Fehlens großer Techfirmen und wegen hoher Datenschutzstandards mit grundsätzlichen Begrenzungen konfrontiert. Immerhin: Der Wille sei da, so Peitz, der auch die Stimmen verschiedener KI-Experten sammelt. Deren Fazit klingt verhalten optimistisch. Bis Jahresende soll aus dem Papier nun eine tatsächliche Strategie heranwachsen. Die Netzpolitik-Autoren Alexander Fanta und Constanze Kurz kritisieren derweil, dass die Wissenschaft im Eckpunktepapier lediglich als Zulieferer der Wirtschaft gesehen wird, und merken an, dass das Papier zwar viele gute Ideen enthalte, bisher jedoch kaum erläutere, wie diese erreicht werden sollen.


🔖Wenn Onlinewerbung Nutzer so gut kennt, dass es unheimlich wird

(Digital ads are starting to feel psychic), 13. Juli 2018, The Outline

Wie kann es sein, dass Instagram Werbung für ein Produkt anzeigt, das man online nicht gesucht, über das man aber kurz vorher gesprochen hat? Immer mehr Menschen glauben, dass ihr Smartphone sie belauscht. Doch tatsächliches Abhören ist für Techfirmen und Werbedienstleister gar nicht mehr notwendig: Ausgefeiltes Tracking und omnipräsente Algorithmen genügen für derartig gezieltes Targeting, bei dem Onlinenutzer das Gefühl bekommen, regelrecht ausspioniert zu werden, schreibt der freie Autor und Wissenschaftler Oscar Schwartz. Er stellt ein Projekt zweier New Yorker Künstler vor, welches Schilderungen über derartige Vorkommnisse sammelt. Das Künstlerduo wolle mit der “New Organs” getauften Website darauf aufmerksam machen, wie raffiniert Überwachung im 21. Jahrhundert abläuft – und wie intransparent. Denn die involvierten Firmen könnten die Prozesse der Algorithmen häufig selbst nicht mehr genau erklären. Für Anwender habe die Entwicklung zur Folge, dass es immer schwieriger werde, nicht paranoid zu sein.


🔖Technische Intuition

(Technical Intuition: Instincts in a Digital World), 21. Juli 2018, medium.com

Wie muss die digitale Gesellschaft gestaltet werden, damit alle Partizipierenden von ihr profitieren können, ohne Schaden zu nehmen? Notwendig ist “Technische Intuition”, schreibt Alix Dunn, Wissenschaftlerin und Direktorin der Non-Profit-Organisation The Engine Room. Eben jene Intuition fehle bei den meisten Menschen. Dabei könnte sie viel verändern. Dunns gedankliches Konzept besteht aus vier Dimensionen: Vorstellungsvermögen über die ablaufenden Prozesse, gezieltes Formulieren von Fragen, Fähigkeit zu Entscheidungen in Übereinstimmung mit eigenen Präferenzen und Prinzipien sowie das Stellen von Forderungen. Am Beispiels eines Rabattprogrammes im Supermarkt erläutert sie, wie anhand dieser vier Schritte technische Intuition dabei helfen kann, klug zu handeln und dazu beizutragen, dass eventuelle Probleme zur Sprache kommen. Für die Forscherin ist klar: Dass nur diejenigen die digitale Welt “verstehen”, die sie entwickeln, ist nicht genug. Zu dem Thema verweisen wir auch auf unsere repräsentative Bevölkerungsbefragung zur Kenntnis der Deutschen über Algorithmen.


🔖Design, KI und Gerechtigkeit

(Design Justice, A.I., and Escape from the Matrix of Domination), 18. Juli 2018, Journal of Design and Science

Immer wenn Sasha Costanza-Chock am Flughafen den Sicherheitsbereich passiert, muss sie zusätzliche Kontrollen über sich ergehen lassen: Als transsexuelle Person, die sich nicht eindeutig einem Geschlecht zuordnet, verwirrt sie die Algorithmen des Körperscanners. Dieser kennt nur Mann und Frau und wird somit stets misstrauisch. In einem ausführlichen Essay nutzt die Autorin und Aktivistin dieses Beispiel, um darauf aufmerksam zu machen, dass KI die Strukturen, Systeme und Normen, die heute die Gesellschaft prägen, übernimmt und somit Diskriminierung und Benachteiligung zementiert. Sie stellt verschiedene soziologische und gender-theoretische Konzepte, wie die „Matrix of Domination“, vor, um zu verdeutlichen, dass Diskriminierung sich häufig nicht auf ein Merkmal wie Geschlecht/Klasse oder Hautfarbe beschränkt und dass verschiedene Formen der Diskriminierung miteinander verknüpft sind und einander verstärken. Der Einsatz algorithmischer Systeme verstärkt diese Dynamiken. Gleichzeitig kann ein besseres Verständnis für Machtstrukturen und Diskriminierung uns helfen, mithilfe Künstlicher Intelligenz (KI) eine Welt zu schaffen, “in die viele Welten passen”. Unabhängig davon, ob man Constanza-Chocks Kapitalismus- und Gesellschaftskritik in Gänze teilt, lohnt sich ein Blick in den Text, der die Notwendigkeit einer interdisziplinären Debatte über die Ethik von Algorithmen sehr deutlich macht und ohne Zweifel zum Nachdenken anregt.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen