Game of Drones?

„Autonome Kampfroboter“ und die Frage der Verantwortung

·

    Viele technische Errungenschaften, die heute in unser alltägliches Leben integriert sind, haben ihren Ursprung in der militärischen Forschung, der damit eine Vorreiterrolle zukommt. In den letzten Jahren fällt in der Debatte rund um aktuelle Forschungsvorhaben immer häufiger der Begriff der „autonomen Kampfroboter“. Dabei wird oftmals diskutiert, ob es aus ethischer Sicht zu rechtfertigen ist, dass Maschinen selbstständig Tötungsentscheidungen in Kriegssituationen treffen können.

    Die philosophische Diskussion bezüglich tödlicher Roboter wurde über viele Jahre von Science-Fiction-Literatur und Filmen angeregt. Berühmte Beispiele sind etwa Isaac Asimovs Roman „I Robot“ aus dem Jahr 1950 oder James Camerons Film „Terminator“ (1984). Der Stand der heutigen Technik verlagert die ethischen Probleme nun in den Bereich des tatsächlich Möglichen. So führen Philosophen wie Ronald C. Arkin und Noel Sharkey seit fast zehn Jahren eine Auseinandersetzung darüber, ob Kampfroboter in ihrem Verhalten dem humanitären Völkerrecht mehr oder weniger entsprechen würden als menschliche SoldatInnen. Die technikoptimistische Position Arkins geht davon aus, dass ein mit einem Ethikmodul ausgestatteter Roboter viel besser und angemessener in der Lage sei, zwischen feindlichen KämpferInnen und ZivilistInnen zu unterscheiden. Technikpessimistische VertreterInnen wie Sharkey bestreiten diese Annahme und einige fordern ein Verbot derartiger Roboter seitens der Politik.

    Es ist jedoch nicht klar, ob völlig „autonome Kampfroboter“ jemals Wirklichkeit werden können. Was bedeutet hier überhaupt Autonomie? Und wer trägt letztlich die Verantwortung für nicht beabsichtigte Folgen, wie zum Beispiel Kriegsverbrechen durch Roboter? Diese Frage wurde von Robert Sparrow in seinem vielbeachteten Artikel „Killer Robots“ (2007) gestellt. Er kommt zu dem Schluss, dass im Falle von vollständig „autonomen“ Kampfrobotern weder die herstellenden Unternehmen und Personen noch das militärische Personal die Verantwortung übernehmen könnte. Es entstünde also eine Verantwortungslücke.[1]

    Unternehmen würden die Verantwortung nach Sparrow nicht übernehmen können, da sich „autonome“ Roboter auch anders entscheiden können würden, als programmierende Personen voraussagen könnten oder als angemessen erachten würden. Das Militär, welches derartige Kampfroboter einsetzen würde, wäre laut Sparrow ebenfalls nicht zur Verantwortung zu ziehen, weil die Entscheidung für ein Ziel nicht vom militärischen Personal, sondern vom Roboter selbst getroffen würde. Würden die Annahmen von Sparrow zutreffen, wäre dies ein gravierendes Problem, weil mit der Zuschreibung von Verantwortung ein Fundament des humanitären Völkerrechts ausgehebelt werden würde. Doch ist es tatsächlich so, dass niemand die Verantwortung für die Handlungen eines „autonomen“ Kampfroboters tragen würde?

    Die Kritik an Sparrow richtet sich in erster Linie gegen seinen Autonomiebegriff, der sehr unbestimmt und spekulativ bleibt. Als zentrale Merkmale von Autonomie führt Sparrow etwa die Unvorhersehbarkeit der Handlungen „autonomer Roboter“ und deren Entscheidungsfähigkeit an. Doch die Unvorhersehbarkeit der Handlungen von Kampfrobotern entsteht ausschließlich durch das Zusammenspiel aus der Komplexität der Technik (inklusive ihrer Programmierung) und den letztlich nicht völlig vorhersehbaren Einflussfaktoren der jeweils konkreten Einsatzsituation. Die zweite zentrale Annahme, dass Roboter selbst Entscheidungen treffen könnten, ist spekulativ und nicht plausibel. Während wir Menschen Willensfreiheit unterstellen können, müssen wir feststellen, dass Roboter – auch wenn sie extrem komplex konstruiert sind – als determiniert zu betrachten sind. Wir können nicht davon ausgehen, dass sie auch anders handeln hätten können, wenn sie einmal gehandelt haben. So unvorhersehbar Handlungen von Kampfrobotern in bestimmten Situationen auch erscheinen mögen, so wären sie schlussendlich doch auf ihre Konstruktion und Programmierung (und der hier nicht auszuschließenden Fehler) zurückzuführen. Zudem ist es mehr als fraglich, ob Kampfrobotern jemals moralische Verantwortung zugeschrieben werden kann. Gerade dies lässt den Begriff der Autonomie in diesem Kontext so fraglich erscheinen, stellt sie doch etwa im Sinne Immanuel Kants eine notwendige Bedingung für den Status als moralisches Subjekt dar.[2]

    Bei der Beschreibung von Kampfrobotern ist daher der Begriff „Automatisierung“ zu bevorzugen. Er drückt am deutlichsten den Kern dessen aus, was unter „autonomen Kampfrobotern“ zumeist gemeint ist. Derartige Roboter agieren relativ selbstständig. Das heißt, dass der Mensch immer weiter „out of the loop“ gestellt ist. „Automatisierung“ unterstellt aber keine direkten moralischen Implikationen.

    Ein Konzept, das nicht von „autonomen“, sondern von automatisierten Kampfrobotern spricht, schließt zudem auch die Verantwortungslücke auf plausiblere Weise, als dies etwa Autoren wie Thomas Hellström tun, die den Versuch unternehmen, den Robotern selbst moralische Verantwortung zuzuschreiben.[3] Mit Blick auf zukünftige hochgradige Automatisierung von Kampfrobotern ist also weniger fraglich, wem die moralische Verantwortung für Kriegsverbrechen zuzuschreiben ist, sondern wie sich die Mitverantwortungen zwischen EntwicklerInnen, Militärs, PolitikerInnen und letztlich auch BürgerInnen konkret aufteilen. Moralisch verantwortlich bleibt damit der Mensch, und dies nicht erst dann, wenn etwas Ungewolltes passiert, sondern schon bei der Schaffung der Voraussetzungen für ein solches Ereignis.


    [1] Vgl. Sparrow, R. (2007): Killer Robots. Journal of Applied Philosophy, Vol. 24, No. 1.

    [2] Vgl. Kant, I. (1900ff): Grundlegung zur Metaphysik der Sitten. Gesammelte Schriften. Bd. 1-22 Preussische Akademie der Wissenschaften, Bd. 23 Deutsche Akademie der Wissenschaften zu Berlin, ab Bd. 24 Akademie der Wissenschaften zu Göttingen, Berlin.

    [3] Vgl. Hellström, T. (2013): On the moral responsibility of military robots. Ethics and Information Technology, 15 (2).