Algorithmenethik Erlesenes #32

Sie wollten schon immer mal ein Gedicht über Algorithmen lesen? Sie fragen sich „Können Algorithmen sich bald selber programmieren?“ Sie wünschen sich mehr Aufstände der Mitarbeiter von Google, Facebook und Co. gegen unethisches Verhalten ihrer Arbeitgeber?

Dann bietet Ihnen diese Erlesenes-Ausgabe einige spannende Einsichten, neue Perspektiven und wirft sicherlich auch die eine oder andere neue Frage auf.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Das Trolley-Problem hat ein Problem

(Does the Trolley Problem Have a Problem?), 18. Juni 2018, Slate

In Diskussionen zu ethischen Implikationen des Einsatzes Künstlicher Intelligenz (KI) wird oft das sogenannte „Trolley-Problem“ angeführt – speziell wenn es um autonome Fahrzeuge geht. Es handelt sich um ein moralisches Gedankenexperiment, bei dem Menschen sich entscheiden sollen, ob sie durch eigenes Handeln eine Person in den Tod schicken würden, wenn sie so einer größeren Zahl von Personen das Leben retten könnten. Der Kolumnist des Onlinemagazins Slate, Daniel Engber, berichtet in diesem Text von den Ergebnissen einer aktuellen Studie zum Trolley-Problem, die dessen praktische Anwendbarkeit infrage stellt: Demnach handeln Menschen in einem realen Szenario des Trolley-Problems mit Mäusen anders als solche, die lediglich darüber Auskunft leisten sollen, was sie in einem solchen Szenario tun würden. Engber debattiert ausgehend von dieser Erkenntnis, inwieweit das auch bereits zuvor nicht unumstrittene Trolley-Problem überhaupt eine wichtige Funktion besitzt – und kommt dabei zu dem differenzierten Schluss, dass das Gedankenexperiment weiterhin ein wichtiges wissenschaftliches Instrument darstellen kann, solange wir uns seiner Einschränkungen bewusst sind.


🔖Programmier dich doch selbst!

27. Juni 2018, Republik

Computer, die selbst programmieren können – die sogenannte „Softwaresynthese“ – galt unter Experten lange Zeit als kindische Träumerei. Doch das ändert sich gerade. Technologieunternehmen und Forscher aus dem Hochschulbereich machen zurzeit große Fortschritte bei der Entwicklung von Algorithmen, die etwa vom Menschen gemachte Fehler im Code erkennen können. Auch die Arbeit an Vervollständigungssystemen für Codes, ähnlich zu Vorschlägen beim Eintippen von Suchbegriffen bei Google, schreitet voran. Der Schritt hin zu Systemen, die ihren eigenen Code schreiben können, wird kleiner. In diesem sehr verständlichen Bericht zeigen die Journalistin Hanna Wick und der Journalist und Entwickler Thomas Preusse den derzeitigen Stand der Dinge sowie die zu erwartenden Auswirkungen auf die menschliche Softwareentwicklung auf. Kreativ finden wir besonders die Art und Weise, wie das Autorenduo ihre eigenen Standpunkte, Fragen und Befürchtungen in Form eines “Chat-Dialogs” den Leserinnen und Lesern näherbringt.


🔖Das komplizierte Verhältnis der Tech-Angestellten zu ihren Arbeitgebern

(Challenging the Tech Companies from Within), 28. Juni 2018, librarianshipwreck.wordpress.com

Teile der Mitarbeitenden von Google, Microsoft und Amazon haben in den letzten Wochen und Monaten gegen unterschiedliche kontroverse Projekte und Initiativen ihrer Arbeitgeber aufbegehrt (siehe Erlesenes #16). Die nur unter Pseudonym auftretende Autorin des Blogs LibrarianShipwreck nimmt diese Ereignisse zum Anlass, um einige nachdenkenswerte Fragen zu stellen: Richtet sich der Aktivismus wirklich gegen das Treiben der Techgiganten oder handelt es sich stattdessen indirekt um politischen Protest gegen Trump? Profitieren die Konzerne in ihrer öffentlichen Wahrnehmung vielleicht sogar von den Aktivitäten einiger Angestellten? Und welche Verantwortung tragen Mitarbeitende der Unternehmen eigentlich an den gesellschaftlichen Folgen der von ihnen entwickelten Technologie? Nach Ansicht der Autorin genügt es nicht, sich selektiv von Projekten zu distanzieren, ansonsten aber weiterhin an Dingen zu arbeiten, die direkt in die Dystopie führen können. Passend zum Thema verweisen wir auf unseren Meinungsbildungsprozess zur Schaffung eines Verhaltenskodex für den Einsatz von Algorithmen.


🔖Künstliche Intelligenz erschnüffelt Krankheiten

(AI is acquiring a sense of smell that can detect illnesses in human breath), 8. Juni 2018, The Conversation

Der menschliche Atem enthält zahlreiche Hinweise auf das Vorhandensein möglicher Krankheiten. Doch bislang war für bestimmte Krankheitsfelder, wie beispielsweise Krebs, ein mühseliges und zeitaufwendiges Verfahren notwendig, um in manueller Arbeit große Mengen an Daten auszuwerten und Moleküle zu identifizieren, die auf gesundheitliche Probleme hinweisen. Ein Wissenschaftlerteam der englischen Loughborough Universität um Andrea Soltoggio hat nun einen lernfähigen Algorithmus darauf trainiert, eigenständig Hinweise auf eine Krebserkrankung im Atem von Patienten zu erkennen. Wie Soltoggio in diesem Artikel erklärt, benötigt das Verfahren lediglich einige Minuten. Es verursache deutlich geringere Kosten als die Analyse des Atems durch menschliche Experten und sei obendrein zuverlässiger. Der Forscher betont, dass das System keine Entscheidungen treffen müsse. Im Grunde helfe es lediglich dabei, schnell und unkompliziert Substanzen in der Luft zu identifizieren. Eine deutschsprachige Zusammenfassung gibt es hier.


🔖Ich bin der Algorithmus

(I Am the Algorithm), 29. Juni 2018, newyorker.com

Wer mit den allgegenwärtigen Algorithmen der führenden Onlinedienste interagiert, vergisst oder verdrängt allzu leicht, wie viel diese Systeme mit der Zeit über einen lernen. Die Cartoonistin und Humoristin Emily Flake erweist uns einen Dienst, indem sie die enorme Kenntnis des Algorithmus über seine Nutzerinnen und Nutzer in diesem gedichtartigen, prägnanten und satirischen Text in deutliche Worte verpackt: Der Algorithmus kennt uns besser als unsere Freunde und unsere Familie. Er kann uns Dinge über uns selbst verraten, die uns entweder völlig unbekannt sind oder über die wir zumindest nie bewusst nachdenken. Er weiß Bescheid über unsere tiefsten Bedürfnisse. Und er ist so gut informiert, dass er sogar in der Lage wäre, uns zu verraten, wann wir sterben. Okay, ganz so weit sind wir noch nicht, schreibt Flake. Aber zumindest zu einer erschreckend genauen Prognose wäre der Algorithmus in der Lage. Siehe auch unsere Artikelreihe zur Prognose von Todesrisiken sowie Erlesenes #30: “Das mögliche Ende der willentlichen Unwissenheit”.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren



Kommentar verfassen