Das in unserem Projekt „Ethik der Algorithmen“ entstandene Buch „Wir und die intelligenten Maschinen“ illustriert anhand konkreter Beispiele, welche Auswirkungen Algorithmen auf einzelne Personen, Staat und Gesellschaft sowie das soziale Miteinander haben. Nach den Effekten Personalisierung und Zugang befasst sich der dritte von neun Beiträgen dieser Reihe sich mit der Frage, wie Algorithmen menschliche Fähigkeiten erweitern können.

„I CAN SEE!!!“ – verkündet Joy Ross ihre frohe Botschaft in einem Youtube-Video. Der Clip zeigt eine enthusiastische Frau beim Einkauf im Supermarkt. In der Obstabteilung hält sie begeistert verschiedene Apfelsorten in die Kamera: Braeburn, Golden Delicious, Granny Smith, Gala. Joy Ross ist kein C-Promi, der auf Youtube Banales teilt und fragwürdige Einkaufstipps gibt. Was ihr so gute Laune bereitet, und offensichtlich auch ihren Zuschauern: Ross ist blind, aber im Supermarkt kann sie neuerdings fast alles erkennen, was ihr wichtig ist.

Auf ihrem Youtube-Kanal dokumentiert sie die Schwierigkeiten, aber auch die Freuden des Alltags, die mit ihrer Erblindung einhergehen. Einkaufen etwa ist eine große Herausforderung: Wie soll sie erkennen, welche Sorte Apfel sie in der Hand hält? Oder wo diese ganz bestimmte Erdbeer-Marmelade steht, die ihre kleine Tochter so mag? Bisher musste sich Ross dazu entweder auf ihren Stamm-Supermarkt und dessen vertraute Sortierung verlassen oder einen anderen Menschen um Hilfe bitten.

Es sind die Algorithmen der App AIpoly Vision, die den Einkauf für Joy Ross zu einem Glücksmoment werden lassen. In ihrem Video testet sie erstmals die App, die Produkte im Supermarkt durch die Handykamera erkennt und anschließend verkündet, um was es sich handelt.

AIpoly Vision nutzt zur Bilderkennung einen hoch entwickelten Algorithmus. Sobald Ross die Handy-Kamera auf einen Gegenstand richtet, vergleicht das Programm das Bild mit Millionen von gespeicherten Fotos und sucht nach Ähnlichkeiten. Rund eine halbe Million Nutzer weltweit profitieren schon von dieser neuartigen Technologie. Die Software wird auf Basis immer neuer Bilddaten weiter trainiert. Sind Fotos von Personen hinterlegt, erkennt sie auch Gesichter, nennt den dazugehörigen Namen und ermöglicht so eine persönliche Ansprache. AIpoly-Gründer Alberto Rizzoli hat drei Jahre nach Unternehmensgründung mit seinen sechs Mitarbeitern bereits rund zwei Milliarden Bilder eingespeist, um Menschen mit Sehbehinderungen zu mehr Selbstständigkeit zu verhelfen.

Um die App zu verbessern, ist Rizzoli immer auf der Suche nach zusätzlichen Datensets. Diese sind der Erfolgsfaktor jeder Bilderkennungssoftware – und zugleich eine ihrer größten Fehlerquellen. In den Datensätzen von AIpoly Vision zu Freizeitaktivitäten kamen beispielsweise die Bilder zum Thema Karaoke hauptsächlich aus Asien, während die zur klassischen Musik vor allem westliche Künstler abbildeten. Der Algorithmus schlussfolgerte konsequenterweise: Asiaten mit Mikrofon in der Hand singen Karaoke, Europäer hingegen Opern und Operetten. Eine regelmäßige Überprüfung der Trainingsdaten ist daher unerlässlich, um solche falschen Schlüsse und Stereotype auszumerzen. Auch dass nicht jedes Reisgericht aus der chinesischen Küche stammt, mussten Rizzoli und sein Team händisch korrigieren.

Rizzolis innerer Antrieb ist die Vision, dass Künstliche Intelligenz Menschen über ihre natürlichen Möglichkeiten hinauswachsen lässt. Ein Menschheitstraum, der mindestens so alt ist wie das Neue Testament: Blinde wieder sehen, Taube wieder hören zu lassen. Indem Computerprogramme, wie AIpoly Bilder erkennen, gleichen sie auf technischem Wege menschliche Einschränkungen aus. Für weltweit rund 250 Millionen Menschen, die mit Blindheit oder Sehbehinderung leben, öffnen sich so neue Türen zu einer selbstständigeren Teilhabe am sozialen Leben.

Prothesen fürs Gehirn

Sehen, hören, sprechen, verstehen: Algorithmen sind Prothesen fürs Gehirn. Sie erweitern unsere visuellen, auditiven und kognitiven Fähigkeiten. Mal sprengen sie, wie im Fall von Sehbehinderten, dauerhaft natürliche Grenzen. Mal machen sie uns, wie im Fall automatisierter Übersetzungen, kurzfristig das Leben leichter, indem sie uns zu etwas befähigen, was wir sonst nur mühsam erlernen könnten oder teuer einkaufen müssten. Das Grundprinzip ist hierbei nicht neu. Schließlich haben Menschen schon immer Werkzeuge geschaffen, um über sich hinaus zu wachsen: Rollstühle halfen voranzukommen; ABS, um sicherer Auto zu fahren. Algorithmen und Künstliche Intelligenz ergänzen jetzt die lange Reihe dieser Hilfsmittel, mit denen wir künftig nicht nur unsere praktischen, sondern vor allem unsere geistigen Fähigkeiten ausweiten können.

Die Kehrseite dieser Entwicklungen ist offensichtlich: Wenn die Optimierung zur Regel wird, entsteht eine gesellschaftliche Dynamik, der sich der Einzelne kaum entziehen kann. Wer seine vermeintlichen Makel nicht technologisch ausgleicht, läuft Gefahr, zurückzubleiben oder gar ausgeschlossen zu werden. Wer sich nicht entsprechend der sozialen Norm aufrüstet, dem erschweren sich Zugang zu Arbeitsplätzen, Partnern und manch anderen Gütern.

Waren künstliche Bauteile wie beispielsweise Herzschrittmacher oder Hüftprothesen früher auf den Ersatz mechanischer Körperfunktionen beschränkt, lassen sich durch Algorithmen heute auch Sinneswahrnehmungen korrigieren. Farbenblinde können dank eines Sensors am Kopf Farben „hören“ – was AIpoly als App auf dem Smartphone leistet, wird hier gleich in den Körper eingepflanzt. Ein sogenanntes  Cochlea-Implantat tragen mittlerweile hunderttausende Hörgeschädigte. Mittels eines Mikrofons verwandelt es Töne in elektrische Signale und speist diese direkt in den noch intakten Hörnerv des Patienten ein.

Die Grenzen der Selbstoptimierung

Die Bereitschaft, seinen Körper technisch aufzupeppen, wächst kontinuierlich. Was ist schon ein Chip-Implantat in einer Welt, in der gespritztes Nervengift zum guten Ton gehört, um ein paar Falten zu glätten und jünger auszusehen? Menschen lassen immer mehr Technik an sich heran und in ihren Körper herein. Wenn diese an außerkörperliche Analyse- und Kontrollinstitutionen angebunden wird, gewinnen gängige Szenarien aus der Science-Fiction-Literatur wie der von dunklen Mächten gesteuerte Cyborg – ein Maschinenmensch – in der realen Welt an Aktualität.

Besonderes Interesse an der Optimierung menschlicher Fähigkeiten hatte schon immer das Militär. Derzeit kommen Helme mit Sensoren zum Einsatz, die die Hirnaktivität von Soldaten messen und bei Bedarf mit elektrischen Impulsen gegensteuern können. So kann der Kampfjet-Pilot, dessen Konzentrationsfähigkeit im Gefecht ermüdet, schnell wieder wachgeblitzt werden.

Die Beispiele zeigen: Technologiebasierte Erweiterungen individueller Fähigkeiten ermöglichen uns, natürliche Grenzen zu überwinden und damit unseren Handlungsspielraum erheblich zu erweitern. Gleichzeitig wachsen damit aber auch die Erwartungen, mehr zu wissen und zu können, mehr zu sehen oder zu hören.

Manche hörbehinderten Menschen jedoch verzichten bewusst auf die Nutzung eines Cochlea-Implantats, da sie ihre Taubheit nicht als Mangel empfinden; hier darf nicht die Mehrheit entscheiden, welches vermeintliche Manko künftig durch eine technische Erweiterung ausgemerzt werden soll. Auch wenn algorithmische Hilfsmittel den Einzelnen unterstützen können, dürfen sie die Gesellschaft nicht von der Pflicht zur Inklusion und Anerkennung von individueller Unterschiedlichkeit entbinden. Und umgekehrt muss die Gesellschaft entscheiden, welche Fähigkeiten der Einzelne als Erweiterte Intelligenz erwerben darf – und welche Upgrades dem Gemeinwohl zuliebe zumindest eingeschränkt, wenn nicht sogar aufgrund ihrer Gefahren gänzlich verboten werden müssen. Die Freude von Joy Ross, als sie im Supermarkt erstmals Apfelsorten erkennen kann, wird dabei sicher niemand bedrohlich finden.

Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Befähigung – Das optimierte Ich“ aus dem Buch „Wir und die intelligenten Maschinen“.

 


Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.