Haben Sie schon einmal einen Song gehört, den ein Algorithmus komponiert hat? Ist Künstliche Intelligenz (KI) in der Justiz nur ein Hype? Wie helfen finnische Häftlinge Algorithmen zu trainieren? Eine bunte Mischung an Themen und Antworten finden sich auch diese Woche in unserem Erlesenes Newsletter!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


🔖Ist KI in der Justiz vor allem nur ein Hype?

(Machine Learning In The Judicial System Is Mostly Just Hype), 29. März 2019, Palladium

Der Trend zum systematischen Einbetten von algorithmischen Systemen in die Prozesse des Rechtssystems basiere auf falschen Annahmen und einem zu großen Vertrauen in die Leistungsfähigkeit Künstlicher Intelligenz (KI). Diese These vertritt der Softwareentwickler Pasha Kamyshev. Zu seinen Kritikpunkten gehört, dass sich durch KI die Wahrscheinlichkeit negativer Bewertungen für Verhalten erhöht, das mit Kriminalität korreliert (wie beispielsweise ein Wohnort an einem Kriminalitätsbrennpunkt). Auch sieht er ein hohes Risiko von Rückkopplungsschleifen, die das System daran hindern, selbstständig besser zu werden. Anstelle KI zum elementaren Bestandteil der Justiz zu machen, hält Kamyshev es für sinnvoller, mit ihrer Hilfe Schwächen im Rechtssystem zu entlarven und den menschlichen Protagonisten dabei zu helfen, das Vorkommen von kognitiven Verzerrungen zu verringern (siehe dazu auch Erlesenes #53 “Künstliche Intelligenz kann Gerichtsurteile fairer machen”).


🔖Sind KI und Privatsphäre doch vereinbar?

(Machines Shouldn’t Have to Spy On Us to Learn), 25. März 2019, Wired

Um Künstliche Intelligenz (KI) zu ermöglichen, sei nach dem derzeitigem technischen Stand meist ein übles Tauschgeschäft erforderlich, bei dem Algorithmen beziehungsweise ihre Entwickler:innen auf persönliche Daten von Anwender:innen zugreifen müssen und Gefahr laufen, ihre Privatsphäre zu verletzen. Das ist ein großes Problem, konstatiert Zeynep Tufekci, Assistenzprofessorin für Techniksoziologie an der Universität von North Carolina, Kolumnistin sowie Buchautorin. Aber es gebe Hoffnung: Immer mehr Forscher:innen und Technologiefirmen widmen sich laut Tufekci der Suche nach einem Verfahren, um Maschinen anhand von verschlüsselten Daten lernen zu lassen. Die Expertin plädiert in ihrem Text für ein Verbot exzessiver Datensammelei, da sich dieses positiv auf das Innovationstempo auswirken werde. Eines Tages wird die bisherige Praxis vielleicht ähnlich altmodisch anmuten wie heute die primitiven Behelfsverfahren verschlüsselter Kommunikation, bevor 1976 die Kryptographie ihren Durchbruch erlebte, hofft Tufekci.


🔖 Wie finnische Häftlinge einen Algorithmus trainieren

29. März 2019, Spiegel Online

Seit drei Monaten arbeiten knapp hundert Häftlinge aus zwei Gefängnissen in Finnland als Algorithmentrainer:innen für ein Startup, das Profile für Unternehmen pflegt. Sonja Peteranderl, Redakteurin im Ressort Netzwelt bei Spiegel Online, berichtet über das Projekt und bezieht sich dabei auf einen englischsprachigen Artikel bei The Verge. Das betreffende Startup habe zehn Computer für die Initiative bereitgestellt, der Lohn werde durch die Gefängnisbehörde verteilt. Die Höhe der Bezahlung sei – typisch für Arbeit hinter Gittern – niedrig. Besonders stimulierend scheint die Tätigkeit nicht zu sein. Der Mitgründer des Startups, Tuomas Rasila, räumt ein, dass sie keine Lernkurve mitbringt. Vorteilhaft sei aber, dass anders als z. B. bei Metallarbeiten “kein Gewaltrisiko” bestehe. In Deutschland ist laut Peteranderl bisher kein Fall digitaler Arbeit im Strafvollzug öffentlich geworden.


🔖Psychologische Tests könnten helfen, das “Denken” Künstlicher Intelligenz besser zu verstehen

(AI Performed Like a Human on a Gestalt Psychology Test), 27. März 2019, Singularity Hub

Das menschliche Gehirn tendiert dazu, anhand einiger weniger visueller Attribute Strukturen und Ordnungsprinzipien zu erkennen. Ein Forscher:innenteam um die Google-Ingenieurin Been Kim hat untersucht, ob Aspekte der sogenannten “Gestaltpsychologie” auch bei für Künstliche Intelligenz (KI) wichtigen künstlichen neuronalen Netzen eine Rolle spielen – ob KI also ebenfalls Objekte “sieht”, wenn lediglich sporadische Konturen vorhanden sind. Über die Studie berichtet Shelly Fan, Neurowissenschaftlerin und Autorin bei Singularity Hub. Ausgehend von 1000 untersuchten Bildern stellten die Forscher:innen fest, dass die KI ähnlich wie Menschen darin Ordnungsstrukturen erkennt. Auch fanden sie eine Korrelation zwischen dieser “Kompetenz” sowie der Fähigkeit, generelle Konzepte zu erfassen. Hilfreich sei diese Forschung, weil sie nahelegt, dass für den Menschen geschaffene psychologische Tests künftig dabei  helfen könnten, das “Denken” von Künstlicher Intelligenz besser zu verstehen.


🔖Ein Algorithmus, der 600 Songs produziert 

(Warner Music ‘signed an algorithm’ to make ambient music — what happens next?), 27. März 2019, The Verge

Wenn ein Musiklabel Produktionen vermarktet, die komplett von einem Algorithmus kreiert wurden, sorgt das wenig überraschend für Schlagzeilen. Zwar ist am Computer produzierte oder zumindest nachbearbeitete Musik mittlerweile Standard, aber bislang hatte immer noch der Mensch das künstlerische Zepter in der Hand. Dani Deahl, DJ, Musikproduzentin und Reporterin bei The Verge, berichtet über den Entscheid von Warner Music, sich von einem Startup vollautomatisiert 600 kurze Ambientstücke generieren zu lassen, um diese bei Streamingplattformen anzubieten. Zwar bestehe vorläufig keine Gefahr, dass eine Künstliche Intelligenz (KI) Superstars wie Beyoncé Konkurrenz machen wird. Dennoch werfe die Entwicklung grundsätzliche Fragen etwa darüber auf, wann ein Song “Fake” sei, und ob Streamingdienste offenlegen sollten, wenn ein Musikstück nicht eindeutig tatsächlich existierenden menschlichen Künstler:innen zugeordnet werden kann. Die angeregte und auch polarisierende Diskussion darüber, wie KI die Kunst verändert, wird also wieder einmal um eine Facette reicher (siehe Erlesenes #52).


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren