Roboter sind auch nur Menschen!? – Ein juristischer Blick auf die Haftung für Künstliche Intelligenz

Autonomes Fahren, Robo-Advice statt menschlicher Bankberatung oder datenbasierte Medizin sind nur drei Beispiele der unendlichen Anwendungsmöglichkeiten für Künstliche Intelligenz (KI). Mit dem zunehmenden Einsatz solcher Systeme werden allerdings auch häufiger durch Technologie verursachte Schadensfälle auftreten. Doch wer haftet, wenn eine Maschine versagt? Es wird höchste Zeit, sich dieser Frage zu widmen.

Selbstlernende technische Systeme, die autonom handeln, haben schon jetzt Einzug in unseren Alltag gefunden. Mit der Zeit werden sie kontinuierlich in immer mehr Bereiche vordringen. Und sie werden Fehler machen – mitunter tödliche, wie bereits beim Einsatz von selbstfahrenden Autos geschehen. Es stellt sich dabei die Frage, wer für von solchen Systemen verursachte Schäden aufkommt. Im Fall des selbstfahrenden Autos müssen wir uns beispielsweise fragen: Soll der Halter des Fahrzeugs für den verursachten Schaden haften oder eher der Autohersteller? Vielleicht auch der Programmierer der Software?

Unter Künstlicher Intelligenz werden üblicherweise technische Systeme verstanden, die auf selbstlernenden Algorithmen basieren. Diese Systeme haben die Fähigkeit, durch Erfahrungen und Interaktion, unabhängig von äußerer Steuerung oder Einflussnahme, zu lernen und Entscheidungen zu treffen sowie auf dieser Grundlage durch Anreicherung der Datenbasis die Rahmenbedingungen für künftige Entscheidungen zu verbessern. In bestimmten Einsatzbereichen entwerfen die Systeme nicht nur Empfehlungen für Menschen, sondern treffen autonom Entscheidungen und setzen diese sogar selbstständig um. Solche Systeme werden als vollautomatisierte oder autonome KI bezeichnet. Abzugrenzen sind selbstlernende Systeme von solchen, die nach konkreten, vorher feststehenden Vorgaben entscheiden (wie etwa ein Bestellsystem, das anhand von Faktoren wie Preis, Bestand und Bedarf selbsttätig für stets gut gefüllte Regale im Buchhandel sorgt). Der Entscheidungsprozess selbstlernender Systeme hingegen ist meist nicht vollständig nachvollziehbar und ihre Einzelentscheidungen sind daher nicht oder nur sehr schwer konkret vorhersehbar. Mit der stetigen Verbesserung der Technologie dürften selbstlernende Systeme immer komplexere Einsatzgebiete erobern und sich dabei nach und nach weiter von der unmittelbaren menschlichen Einflussnahme und Beherrschbarkeit entfernen.

Rechtlich lässt sich die Unvorhersehbarkeit der Ergebnisse beim Einsatz Künstlicher Intelligenz nur schwer fassen: Grundlage des Konzepts der Haftung ist ein menschliches Fehlverhalten. Kann von einem solchen Fehlverhalten nun überhaupt gesprochen werden, wenn das eingesetzte System letztlich eigene Entscheidungen trifft? Oder verselbständigt sich das System dann derart, dass es als eigenes Subjekt zu betrachten ist? Wer trägt aber dann die Verantwortung für Fehler des Systems?

Künstliche Intelligenz – eine neue Herausforderung für das Haftungsregime

Gehen wir zunächst einen Schritt zurück: Für die Bestimmung der Haftung für technische Systeme gibt es bereits einigermaßen gefestigte Rahmenbedingungen. Die Verantwortlichkeit des Herstellers für fehlerhafte Produkte ist über die Produkt- bzw. Produzentenhaftung geregelt. Die Haftung beim Einsatz technischer Systeme folgt zumeist dem Verschuldensprinzip. So haftet etwa der Betreiber einer Maschine gegenüber demjenigen, der durch deren Einsatz verletzt wurde, grundsätzlich nur, wenn ihm dabei ein vorwerfbares Fehlverhalten zur Last fällt. Hat der Betreiber die Maschine ordnungsgemäß betrieben und gewartet, ist ihm nach der Rechtsprechung üblicherweise kein Verschulden vorzuwerfen. Anders ist es aber etwa bei der Nutzung von Kraftfahrzeugen. Hier haftet der Halter für einen Schaden beim Betrieb seines Fahrzeugs verschuldensunabhängig schon deswegen, weil er durch den Betrieb eine Gefahrenquelle geschaffen hat (sogenannte Gefährdungshaftung). Um die Risiken des Halters hier nicht ausufern zu lassen und sicherzustellen, dass der Geschädigte bei mangelnder Solvenz des Halters nicht leer ausgeht, hat der Halter eine Haftpflichtversicherung abzuschließen.

Wie ist nun die Künstliche Intelligenz in dieses geltende Haftungsregime einzuordnen? Hier stehen sich derzeit zwei vollkommen unterschiedliche Ansätze gegenüber: Haftet der Betreiber des selbstlernenden Systems, wie im klassischen Haftungsrecht, oder ist das System selbst als Subjekt zu betrachten, da dessen Versagen dem Betreiber nur unter bestimmten Bedingungen zuzurechnen ist? Diese Unterscheidung ist kein akademisches Gedankenexperiment, sondern hat praktische Auswirkungen: Je stärker man die Technologie als Verantwortungsträger betrachtet, desto größer wird die Gefahr, dass letztlich die Allgemeinheit die Risiken für dessen Einsatz trägt.

Derzeit noch sind wohl im juristischen Diskurs diejenigen Stimmen in der Mehrheit, die den Betreiber Künstlicher Intelligenz in der Verantwortung sehen. Legt man hier jedoch die Kriterien der Rechtsprechung zugrunde, wonach eine Verschuldenshaftung bei ordnungsgemäßem Betrieb und fachgerechter Wartung technischer Systeme ausscheidet, dann drohen erhebliche Haftungslücken. Denn hierdurch werden die spezifischen Risiken aus dem Einsatz Künstlicher Intelligenz nicht erfasst, nämlich unvorhersehbare Ergebnisse der selbstlernenden Systeme. Es mag etwa der Roboter in der Industrieproduktion noch so vorschriftsmäßig eingesetzt werden, und dennoch kann es zu „Fehlschlüssen“ aufgrund vergangener Arbeitsabläufe kommen, durch die Material oder gar Mitarbeitende geschädigt werden.

Vor diesem Hintergrund wird vielfach eine Neuregelung des Schadensrechts durch den Gesetzgeber gefordert. So hat das Europäische Parlament in einer Entschließung an die Europäische Kommission zwei Lösungswege ins Spiel gebracht: Zum einen könnte die Haftung vollständig auf die Hersteller übertragen werden. Hersteller würden dann immer für von autonomen Systemen verursachte Schäden haften. Ob ein Hersteller einen Schaden tatsächlich schuldhaft verursacht hat, würde keine Rolle spielen. Zudem schlägt das Parlament eine Versicherungspflicht für den Hersteller, Eigentümer oder Nutzer vor. Denkbar wäre aber auch eine verschuldensunabhängige Haftung des Nutzers eines autonomen Systems, wie dies für Kraftfahrzeuge (Halterhaftung) oder Tiere (Haftung des Tierhalters) bereits geregelt ist.

Mit zunehmender Unvorhersehbarkeit von Entscheidungen selbstlernender Systeme stellt sich jedoch die Frage, ob eine solche strenge Haftung noch interessengerecht ist. Insbesondere für den Hersteller drohte das Haftungsrisiko dann unüberschaubar zu werden, zumal für ihn kaum absehbar wäre, in welchem Kontext seine Systeme eingesetzt werden und welche Schäden dort durch das Lernen in einem unbekannten Umfeld potenziell entstehen können. Wenn das Risiko aber nur schwer absehbar ist, dürfte es für die Hersteller auch schwieriger werden, sich gegen etwaige Haftungsfälle zu versichern. Dies könnte insgesamt die Bereitschaft zur Weiterentwicklung Künstlicher Intelligenz erheblich beeinträchtigen.

Die Geburt der E-Person als mögliche Lösung?

Um der Verselbstständigung der Künstlichen Intelligenz gerecht zu werden und die Haftung interessengerecht zu regeln, wird vom Europäischen Parlament auch erwogen, autonomen KI-Systemen eine eigene Rechtspersönlichkeit — auch als E-Person bezeichnet —zuzuerkennen. Die Einführung einer E-Person würde allerdings eine grundlegende Abkehr von der bisherigen Beschränkung der Rechtsfähigkeit auf natürliche und juristische Personen (wie Gesellschaften und Vereine) darstellen. Sollte es so weit kommen, ergeben sich einige Anschlussfragen zur rechtlichen Ausgestaltung: Müssen KI-Systeme zukünftig ein eigenes Vermögen zugewiesen bekommen, mit welchem sie für Schäden haften können? Und sollte für KI-Systeme ein öffentliches Register geschaffen werden, in das diese, ähnlich wie in das Vereins- oder Handelsregister, einzutragen sind, um Nutzern ihre Identifikation zu ermöglichen? Der Vorschlag, für selbstlernende, autonome Systeme eine eigene Rechtspersönlichkeit einzuführen, begegnet allerdings erheblicher Kritik aus der Wissenschaft. Hauptkritikpunkt dabei ist, dass eine Rechtsfähigkeit autonomer KI-Systeme auf Basis einer Einschätzung gefordert werde, die die bestehenden technischen Möglichkeiten erheblich überschätzt. Es wird argumentiert, dass die Zurechnung zu einer menschlichen Verursachung tatsächlich auch bei selbstlernenden Systemen möglich sei. Die Zuerkennung einer eigenen Rechtspersönlichkeit in Form einer E-Person sei daher überflüssig und im Hinblick auf mögliche Folgeprobleme nicht praktikabel.

Wir brauchen einen gesellschaftspolitischen Diskurs über den Einsatz von KI!

Wirkt die Frage nach der Ausgestaltung des rechtlichen Rahmens für den Einsatz selbstlernender Systeme zunächst vielleicht wie eine rein juristische Spezialmaterie, so stehen dahinter doch wesentliche politische Weichenstellungen. Letztlich ist eine Entscheidung darüber zu treffen, ob und in welchem Umfang wir den Einsatz Künstlicher Intelligenz erleichtern, beschränken oder steuern wollen. Dabei kommt der Haftung eine zentrale Steuerungsfunktion für die technische Entwicklung zu. So dürfte eine strenge Gefährdungshaftung für den Einsatz selbstlernender Systeme dazu führen, dass deren Verbreitung gehemmt wird, was wiederum auch den Anreiz zu weiterer Entwicklung in diesem Bereich verringern würde. Andererseits kann eine verschuldensunabhängige Haftung des Herstellers selbstlernender Systeme einen Anreiz für die Entwicklung möglichst sicherer Systeme setzen.

Ein plastisches Beispiel für die gesellschaftspolitische Dimension des Themas ist das autonome Fahren: Angesichts der rasanten Entwicklung ist zu erwarten, dass autonom gesteuerte Fahrzeuge alsbald weit weniger Schäden verursachen werden als menschliche Fahrer. Dennoch wird der  Einsatz autonom gesteuerter Fahrzeuge derzeit eher kontrovers diskutiert, große Teile der Bevölkerung sind nicht bereit, die Kontrolle über das Steuer vollständig aufzugeben. Um Vertrauen in die Technologie aufzubauen, muss sichergestellt werden, dass in Schadensfällen Verantwortlichkeiten geklärt sind. Wenn niemand haftet, wird auch keine Akzeptanz für den Einsatz neuer Technologien entstehen. So erfreulich es ist, dass die weitreichenden Implikationen und die gesellschaftliche und wirtschaftliche Bedeutung der Künstlichen Intelligenz bereits einen zentralen Raum in der öffentlichen Diskussion einnehmen, so sehr steckt die Frage nach der rechtlichen Ausgestaltung noch in den Kinderschuhen. Interessengerechte Leitlinien für den Rechtsrahmen autonomer Künstlicher Intelligenz müssen in interdisziplinärer Zusammenarbeit und durch einen breiten gesellschaftlichen Diskurs entwickelt werden. Dieser sollte angesichts der grenzüberschreitenden Dimension des Themas auch auf europäischer Ebene geführt werden. Gehen wir es also an.



Kommentare

  1. / von Rolf Schlotterer

    Die rechtliche Diskussion muss bald entschieden werden. Ich teile die Ansicht der kritischen Wissenschaftler, die dazu tendieren, Versagen von KI-Systemen menschlicher Verursachung zuzurechnen.
    Wir beschäftigen uns seit einigen Jahren intensiv mit dem Thema KI im Zusammenhang mit den Human Factors und den primären Ursachen von Schwachstellen und Risiken autonomer Systeme. Unser Lösungsvorschlag wäre ein Forensisches Interventionssystem, das im Kern aus einem robusten, integren Algorithmus besteht. Das mathematische Modell dazu besteht bereits. Wenn es uns gelingt, diesen Algorithmus in bestehende KI-Systeme zu integrieren, hätte der Gesetzgeber die Möglichkeit, die Haftungsfrage eindeutig zu regeln. Der integre FIS-Algorithmus ist robust und daher nicht manipulierbar.

Kommentar verfassen