Auswertung der Blogparade – Eure Meinungen und Ideen zu Künstlicher Intelligenz fürs Gemeinwohl

In den letzten Wochen und Tagen hat sich die Politik weiter auf die Auseinandersetzung mit Algorithmen und Künstlicher Intelligenz (KI) vorbereitet. Die Sachverständigen der KI-Enquete wurden berufen. Der Digitalrat der Bundesregierung kam das erste Mal zusammen. Die Datenethikkommission wurde durch die Bundesminister Horst Seehofer und Katarina Barley zu ihrer ersten Sitzung begrüßt. Während die verschiedenen politischen Gremien im Begriff sind, ihre Arbeit aufzunehmen, haben viele von Euch schon einmal die Zeit genutzt, um sich an unserer Blogparade zu beteiligen. Anfang August baten wir Euch anlässlich der Veröffentlichung des KI-Eckpunktepapiers der Bundesregierung darum, Eure Gedanken zum Thema „KI und Gemeinwohl“ mit uns zu teilen.

Zuallererst daher: Vielen Dank an alle, die mitgemacht haben!

In diesem Artikel haben wir die wichtigsten Gedanken, Ideen und Erkenntnisse aus den eingereichten Beiträgen zusammengefasst, Gemeinsamkeiten identifiziert und Punkte hervorgehoben, an denen die Meinungen besonders stark auseinandergehen. Eine Auflistung aller eingereichten Beiträge findet sich am Ende dieses Artikels.

Besonders gefreut hat uns, dass sich an der Blogparade Menschen mit sehr unterschiedlichen Hintergründen beteiligt haben – aus der Zivilgesellschaft, dem Privatsektor sowie aus der Verwaltung, aber auch Menschen, die sich aus beruflichem, und solchen, die sich aus privatem Interesse mit dem Thema beschäftigen. Diese Diversität spiegelt sich in den Beiträgen wider: Einige haben das KI-Eckpunktepapier genau unter die Lupe genommen und seine Stärken und Schwächen diskutiert. Andere haben sich von den Ideen der Bundesregierung gelöst und an eine allgemeinere Diskussion des Themas herangewagt. Dabei waren rechtliche wie philosophische Perspektiven sowie Einblicke in bestimmte Anwendungsbereiche, wie zum Beispiel das Robo-Recuriting, mit dabei.

Für gemeinwohlorientierte KI-Innovation

Alle Autor:innen scheinen sich einig zu sein: Algorithmen sind aus unserem Leben nicht mehr wegzudenken und bieten große Chancen für alle Gesellschaftsbereiche – von der Verbesserung der Mobilitäts- und Stadtentwicklung über den Ausbau von E-Government und die Optimierung von Recruiting, Medizin und Pflege bis hin zu Umweltschutz und Armutsbekämpfung. „Diese Potenziale ungenutzt zu lassen, wäre politisch kaum verantwortbar“, konstatiert Max Walzl in seinem Beitrag. Allerdings liegt der Fokus des KI-Eckpunktepapiers stark auf ökonomischen Chancen. Walzl hat nachgezählt und festgestellt, dass der Begriff „Wirtschaft“ 33 Mal im Text auftaucht, die Begriffe „Gemeinwohl“ und „Teilhabe“ jedoch nur je zweimal.

Um das Gemeinwohl zu fördern und Algorithmen in den Dienst der Gesellschaft zu stellen, muss Innovation in den Bereichen Algorithmen und KI vorangetrieben werden. Politisches Handeln darf sich nicht auf das Verhindern von Worst-Case-Szenarien oder das Abschwächen von Risiken beschränken. Im Gegensatz zu anderen Ländern sei der Umgang mit dem Thema KI in Europa „durch das Wertefundament und den regulatorischen Rahmen der EU per se am Gemeinwohl ausgerichtet.“, argumentiert Tobias Knobloch, Projektleiter „Algorithmen fürs Gemeinwohl“ bei der Stiftung Neue Verantwortung (SNV). Umso dringlicher sei deshalb die  Koordination von Strategien auf nationaler und europäischer Ebene. Es dürfe keine nationalen Sonderwege geben. Wir bräuchten ein konzentriertes, gebündeltes europäisches Vorgehen.

Das KI-Eckpunktepapier postuliert das Ziel, Deutschland zur führenden KI-Nation zu machen. Zur Frage, wie steinig dieser Weg sein wird, haben die Autor:innen der Beiträge sehr unterschiedliche Meinungen. So erkennt Joachim Dierks in der Angst, im Bereich KI den Anschluss zu verpassen, ein typisch deutsches Phänomen und argumentiert, dass die Situation gar nicht so schlecht sei, wie sie häufig dargestellt wird. In einigen anderen Beiträgen schwingt hingegen das Gefühl mit, dass die Schwere der Lage noch nicht einmal richtig erkannt wurde.

Ein Kritikpunkt ist unumstritten: Bis auf einige wichtige Punkte zur Forschungsförderung fehlt es an konkreten Ideen, wie die ambitionierten Ziele erreicht werden sollen. Während das KI-Eckpunktepapier in Hinblick auf die Breite der abgedeckten Themen internationalen Vorbildcharakter hat, mangelt es noch an Umsetzungsvorschlägen. Immerhin, wirft Max Walzl ein, erwähnten die KI-Eckpunkte an mehreren Stellen Experimentierräume, Testfelder und Versuchslabore, die es zuzulassen und zu fördern gelte.

Lisa Zech, Stefan Döring und Wolfgang Glock aus dem Team E- und Open-Government der Landeshauptstadt München machen in ihrem Beitrag einige greifbare Vorschläge zur Förderung von Innovation in der Verwaltung. Dabei argumentieren sie: Die Bürger:innen sollten an der Entwicklung kreativer Ideen für neue Nutzungsbereiche von KI in der Verwaltung unbedingt beteiligt werden. Innovationswettbewerbe und Beteiligungsformate seien hierfür gute Möglichkeiten. So könnten bei den Münchner Barcamps #MucGov Bürger:innen und Beschäftigte der Verwaltung gemeinsam über Lösungsansätze und Innovation diskutieren.

Für besseren Zugang zu Daten

Tobias Knobloch hebt in seinem Beitrag den mangelnden Zugang zu Daten als eines der Haupthindernisse für Innovation hervor. Er weist auf die Dissonanz von Anspruch und Wirklichkeit hinsichtlich der Verfügbarkeit von (Forschungs-)Daten hin. Im KI-Eckpunktepapier sei zwar vom „Heben der Datenschätze der Forschungseinrichtungen“ die Rede, doch erst im Sommer des vergangenen Jahres 2017 habe sich das Forschungsministerium dagegen gesträubt, Forschungsdaten in den Geltungsbereich des Open-Data-Gesetzes aufzunehmen.

Zudem sei das Bestreben, den Zugang zu qualitativ hochwertigen Daten deutlich zu verbessern, ohne dabei Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung oder andere Grundrechte zu verletzen, zu vage formuliert. Handlungsbedarf sieht Knobloch bei der Standardisierung von Daten und im Bereich Datenportabilität. Durch Marktregulierung könnten zudem Fortschritte in den Bereichen Open Data und Open Access erzielt werden. Angesichts der immensen Bedeutung von nicht personenbezogenen und diskriminierungsfreien Trainingsdatenpools in ausreichendem Umfang und ausreichender Güte solle in Betracht gezogen werden, die Stelle eine:r Bundesdatenbeauftragten einzurichten.

Für ein „Vermummungsverbot“ von Algorithmen

Im Mai 2018 stellte Google die experimentelle Software Duplex vor, die am Telefon einen Menschen imitieren und so zum Beispiel einen Friseurtermin oder eine Restaurantreservierung vereinbaren kann. Wenn ein Mensch in der Interaktion mit einer Maschine diese nicht mehr von einem anderen Menschen unterschieden kann, gilt diese Maschine als wahrhaft intelligent. So lautet die Grundthese des durch den britischen Informatiker Alan Turing 1950 entwickelten Turing-Tests. Der Test ist in der Diskussion über Künstliche Intelligenz legendär. Doch Innovationen wie Googles Duplex zeigen, dass Turings Grundthese überholt zu sein scheint. Denn selbst wenn es dem Sprachassistenten gelingt, der Person am anderen Ende der Leitung durch Redepausen und das Einstreuen von „Hmms“ und „Ähms“ vorzutäuschen, ein echter Mensch zu sein: Wirklich intelligent ist die Software dadurch noch lange nicht.

Das ändert jedoch nichts daran, dass Innovation wie Duplex einige ethische Fragen aufwerfen, welche Pauline Kuss in ihrem Blogbeitrag diskutiert: Unser Leben wird zunehmend vermessen. KI wird derweil immer besser darin, diese Daten auszuwerten. Dadurch kommt es zu Machtverschiebungen. Kuss weist darauf hin, dass bereits an KI gearbeitet werde, die persönliche Informationen über uns aus dem Gesprochenen heraushören und uns in der Folge manipulieren kann. Wenn ein Mensch nicht wisse, dass er mit einer Maschine spricht, dann sei es für ihn unmöglich, selbstbestimmt über den Schutz seiner Privatsphäre zu entscheiden.

Eine logische Schlussfolgerung, die auch in der Debatte über den Duplex-Sprachassistenten immer wieder aufkam: Ein „Vermummungsverbot“ für Algorithmen. Wenn wir mit Maschinen interagieren, dann müssen wir darüber informiert werden.

Das Kompetenzzentrum Öffentliche Informationstechnologie (ÖFIT) fordert neben einer Kennzeichnungspflicht auch die Ziele von KI transparent zu machen. In ihrem Impulspapier weisen die Autor:innen darauf hin, dass Innovation zwar gut sei, dabei aber bedacht werden sollte, dass im Einzelfall die komplexere KI nicht immer zwangsläufig die bessere sei. Wenn mit zwei Systemen eine ähnliche Leistung erzielt werden könne, sollte im Zweifelsfall das simplere System gewählt werden, da dessen Entscheidungsfindung besser nachzuvollziehen und zu kontrollieren sei.

Für ein Recht auf Arbeit

Der Strukturwandel der Arbeitswelt hat in dem KI-Eckpunktepapier ein eigenes Kapitel erhalten. Max Walz hält dieses Kapitel für besonders gelungen und hebt positiv hervor, dass die Prüfung und ggf. Weiterentwicklung der betrieblichen Mitbestimmungsmöglichkeiten bei Einführung von KI-Anwendungen als klares Bekenntnis formuliert wurde.

Matthias Melcher weist daraufhin, dass der Wandel auf dem Arbeitsmarkt nicht nur bedeute, dass sich Jobprofile verändern, sondern dass Algorithmen und KI auch zum Wegfall von Arbeitsplätzen führen. Er bemängelt: Im KI-Eckpunktepapier fehle eine greifbare, konkrete Garantie für Arbeitsplätze – eine Art einklagbares „Recht auf Arbeit“. Dabei gehe es nicht darum, die derzeitigen Stellen zu sichern, sondern für ausreichend Arbeitsplätze in der Zukunft zu sorgen. Er empfiehlt einen Blick nach Finnland, wo bereits intensiv darüber diskutiert wird, wie mit den Veränderungen der Arbeitswelt umgegangen werden soll.

Für einen breiten gesellschaftlichen Diskurs und Kompetenzaufbau

Eine repräsentative Bevölkerungsumfrage der Bertelsmann Stiftung hat gezeigt, dass in Deutschland hinsichtlich Algorithmen Unkenntnis, Unentschlossenheit und Unbehagen herrschen. Um diese Unsicherheiten zu überwinden, brauche es  eine breite gesellschaftliche Debatte zu den Chancen und Risiken von Algorithmen und KI.

Der größte Wert der Digitalisierungsdebatte sei, dass sie eine längst überfällige Reflexion unseres Menschseins und unseres Verständnisses von Zusammenleben befördert, schreibt Thomas Leppert, stellvertretender Bereichsleiter Gesellschaft bei der Robert Bosch Stiftung, in seinem Blogbeitrag „Der neue Mensch“. Im KI-Eckpunktepapier fehlen ihm einige größere moralische Fragen. So würden Algorithmen als Rechtssubjekte unser Verständnis von Gesellschaft radikal herausfordern: Haben sie Anrechte auf Schutz, auf Teilhabe, auf Privatsphäre? Und, zuallererst: auf Würde? Mit der zunehmenden Entwicklung von Human Enhancement, Transhumanismus oder Cyborgs, Brain- und Bodyhacking werden sich solche Fragen auch für das Zusammenleben mit „verbesserten Menschen“ stellen. Welchen Stellenwert nehmen sie und ihre Bedürfnisse in unserer Gemeinschaft ein? Welche möglicherweise gesteigerte Verantwortung haben sie für das Gemeinwohl? Diese Fragen müssten dringend diskutiert werden, so Leppert.

Als Grundlage dafür gilt es, die nötigen Kompetenzen auf allen Ebenen – vom Bürger über Wirtschaft und Zivilgesellschaft bis zu Verwaltung und politischen Entscheidern – systematisch aufzubauen. Dieses wirklich essenzielle Thema wurde auch in den Beiträgen zur Blogparade immer wieder aufgegriffen.

Für Leitlinien zur Algorithmengestaltung und unabhängige Kontrolle

Es ist unmöglich, Transparenz und Nachvollziehbarkeit für jede einzelne algorithmische Entscheidung zu schaffen. Deshalb muss Vertrauen in den Prozess der Entwicklung algorithmischer Systeme aufgebaut werden. Verhaltenskodizes und ethische Leitlinien für Algorithmengestalter:innen können hierzu einen Beitrag leisten. Unser in mehreren Beiträgen erwähntes Projekt zur Entwicklung eines Gütekriterienkatalogs für Algorithmen soll dazu einen Beitrag leisten.

Damit ein solcher Gütekriterienkatalog wirksam wird, braucht er eine gewisse Verbindlichkeit. Robo-Recruiting-Experte Joachim Diercks trägt dazu in seinem Beitrag einige Ideen zusammen. Einer Zertifizierung durch eine Art Algorithmen-TÜV steht er jedoch eher skeptisch gegenüber. Wären externe Zertifizierungsstellen mit dieser Aufgabe nicht heillos überfordert? In (DIN-)Normen sieht Diercks hingegen eine bessere Lösung. Diese müssten nicht zwangsläufig bindend sein, um perspektivisch einen Industriestandard zu schaffen. Ganz auf die Selbstkontrolle verlassen dürfe man sich allerdings nicht. Daher brauche es zusätzlich neutrale, zivilgesellschaftliche Watchdog-Organisationen wie AlgorithmWatch, meint Dierks.

Matthias Melcher fürchtet einen Ermüdungseffekt in der Algorithmenkontrolle: Wenn erst einmal 98 Prozent der Entscheidungen durch KI gut funktionierten, könne es leicht passieren, dass die übrigen zwei Prozent gar nicht mehr überwacht werden. Wo das Leben der Menschen direkt betroffen sei, müsse eine fortwährende Qualitätskontrolle garantiert werden. Denn jede einzelne Fehlentscheidung könne weitreichende Konsequenzen haben.

Alle Beiträge im Überblick:

 



Kommentar verfassen