Artikel

Artikel drucken zurück

Roboterwaffen

Autonom im rechtsfreien Raum

von Édouard Pflimlin

Sie waren die Stars auf der Rüstungsmesse Eurosatory, die im Juni 2016 in der Nähe von Paris stattfand: Kampfroboter für den Einsatz am Boden. Sie können mit Maschinengewehren und Granatwerfern bestückt werden wie etwa der ­Themis; sie können zur Terrorabwehr eingesetzt werden wie der Dogo oder zum Schutz von Konvois wie der RoBattle: ein dreiachsiges, sieben Tonnen schweres Gefährt mit einem Geschützturm.

Diese Waffensysteme funktionieren zumindest teilweise noch per Fernsteuerung, aber es gibt inzwischen auch schon vollständig autonome Kampfroboter. Zum Beispiel den SGR-A1 des südkoreanischen Konzerns Samsung. Dieser Roboter überwacht seit 2013 rund um die Uhr die innerkoreanische Grenze. Er ist mit Hochleistungskameras und Sensoren ausgestattet, die bewegliche Ziele in bis zu vier Kilometer Entfernung aufspüren. Der SGR-A1 kann auch Stimmen und Passwörter erkennen und Menschen von Tieren unterscheiden. Er hat sogar selbst eine Stimme, die „Hände hoch“ ruft, wenn eine Person die Demarkationslinie überschreitet. Falls sich der Verdächtige nicht ergibt, kann der Robocop sein Daewoo-K3-Maschinengewehr (Kaliber 5,56) oder seinen Granatwerfer einsetzen. Den Schießbefehl erteilen zurzeit noch Menschen in einer Kommandozentrale, aber der SGR-A1 besitzt auch einen Automatikmodus, sodass er völlig unabhängig agieren kann.1 Samsung betont vor allem, dass dieser Grenzwächter nie müde wird und dass ihm selbst widrigste Wetterbedingungen nichts ausmachen.

Die Befürworter und Entwickler von Militärrobotern heben als besondere Vorzüge hervor, dass diese die Drecksarbeit erledigen, also was sie in ihrem Jargon als Missions 3 D (für dull, dirty, dangerous) bezeichnen.2 So können Roboter das Räumen von Minen und andere Aufgaben in radioaktiv, bakteriologisch oder chemisch verseuchtem Gelände übernehmen, aber auch monotone Patrouillen und Wachdienste oder körperlich anstrengende Arbeiten wie den Transport schwerer Lasten.

Derzeit existiert für den Einsatz von Militärrobotern – wie für Drohnen – noch kein internationaler Gesetzesrahmen. Und das, obwohl die Entwicklung dieser neuartigen Waffen immense rechtliche und ethische Probleme aufwirft. Doch das kümmert die Militärs nicht, deren Hauptsorge offenbar dahin geht, sich im Rüstungswettlauf nicht abhängen zu lassen. So empfiehlt etwa das Defense Science Board (DSB), ein Beratungsgremium des US-Verteidigungsministeriums, in einem Report vom Juni 2016 „sofortige Maßnahmen“, damit die USA nicht den Anschluss verlieren.3

Chinesische Staatsunternehmen arbeiten bereits an der Entwicklung teil­autonomer Roboter. Und vor Kurzem soll Russland ein „Unicum“ getauftes System  getestet  haben,  das  Fahrzeuge

mit künstlicher Intelligenz (KI) ausstattet. Damit könnten, hieß es in der Verlautbarung, „menschliche Eingriffe in Zukunft fast vollständig überflüssig werden“.4 Auch in Israel produzieren diverse Privatunternehmen und Start-ups des boomenden Rüstungssektors diverse Militärroboter für den Einsatz am Boden.

Manche sehen in den rasanten Fortschritten auf dem Gebiet der Robotik und der KI bereits eine „dritte Revolution“ in der Kriegsführung – nach der Erfindung des Schießpulvers und der Entwicklung von Atomwaffen. Ohne Kontrollmechanismen könnte dieser technologische Fortschritt bald zur Entwicklung tödlicher autonomer Waffensysteme (Lethal Autonomous Weapon Systems, LAWS) führen.

Die Politiker versuchen diese Gefahr kleinzureden. Im September 2016 versicherte der damalige US-Verteidigungsminister Ashton Carter: „In vielen Fällen und definitiv immer bei der Anwendung von Gewalt wird es nie zu echter Autonomie kommen, weil Menschen in diese Entscheidungen involviert sein werden.“5

Zugleich deutete der damalige stellvertretende Vorsitzende des US-Generalstabs Paul J. Selva allerdings an, die USA könnten in etwa zehn Jahren technisch in der Lage sein, autonom agierende Killerroboter herzustellen. Wobei er beteuerte, dass man keinerlei derartige Absichten hege.6

„Die menschliche Kontrolle als verpflichtendes Prinzip zu verankern, würde helfen, einer Erosion moralischer Grundwerte vorzubeugen“, sagt Bonnie Docherty, Waffenexpertin von Human Rights Watch (HRW). Die Menschenrechtsorganisation hat mit anderen NGOs eine weltweite Kampagne zum Verbot von Killerrobotern gestartet.7 Die Tendenz zu immer autonomeren Waffensystemen eröffnet für die Völkerrechtler ein völlig neues Feld, meint Julien Ancelin, ein Experte für Rüstungskontrolle: „Die Entwicklung dieser Technologien wirft Fragen auf, die über die gängigen völkerrechtlichen Problemstellungen hinausgehen.“8

Autonome Waffensysteme untergraben gleich mehrere Grundpfeiler des humanitären Völkerrechts, wie es in den Genfer Konventionen von 1949 und deren Zusatzprotokollen kodifiziert ist. Zu diesen Grundpfeilern gehören die Menschenwürde, die Unterscheidung zwischen Kombattanten und Zivilisten sowie der Grundsatz der Verhältnismäßigkeit. Sollten eines Tages tatsächlich Roboter allein über Leben und Tod entscheiden, würde dies die Kriegsführung grundlegend verändern.

Anlässlich der International Joint Conference on Artificial Intelligence forderten am 28. Juli 2015 über tausend Wissenschaftler und Unternehmer – unter ihnen der britische Astro­physiker Stephen Hawking, der US-Linguist Noam Chomsky, SpaceX- und Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak – in einem offenen Brief ein Verbot autonomer Waffen. „Wir glauben, dass KI der Menschheit in vielerlei Hinsicht sehr dienlich sein kann, und eben dies sollte auch ihr Ziel sein“, schrieben die Wissenschaftler.9 Es bestehe allerdings die Gefahr eines militärischen Wettrüstens in diesem Bereich, das nur durch ein internationales Verbot offensiver, autonomer Waffensysteme ohne menschliche Kontrolle verhindert werden könne.

Deshalb warnen die Unterzeichner: „Sollte sich eine militärische Großmacht dazu entschließen, die Entwicklung von KI-Waffen voranzutreiben, so ist ein globales Wettrüsten so gut wie unvermeidbar.“ Wohin eine solche Entwicklung letztlich führen werde, liege auf der Hand: „Autonome Waffen werden die Kalaschnikows von morgen sein.“ In dem Brief wird auch betont, dass ein Großteil der KI-Forscher gegen die Entwicklung von Waffen auf Grundlage ihrer Arbeiten sei – so wie auch die meisten Chemiker, Biologen und Physiker für die Nichtverbreitung von ABC-Waffen eintreten.

In der Vergangenheit reagierte die internationale Gemeinschaft auf neuartige Waffen stets mit einer Verschärfung der Genfer Konventionen. So kam 1980 die UN-Waffenkonvention zustande, die „ein Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen“ festschreibt, „die übermäßige Leiden verursachen oder unterschiedslos wirken können“.

Dieses Rahmenabkommen wurde mehrmals durch Zusatzprotokolle ergänzt, etwa durch das Protokoll II über Landminen und Sprengfallen von 1983 oder das Protokoll IV von 1998, das den Einsatz „blind machender Laserwaffen“ untersagt, noch bevor diese überhaupt auf einem Schlachtfeld zum Einsatz kamen.10

Bei der Ausarbeitung und Verabschiedung dieses vierten Protokolls war das Internationale Komitee vom Roten Kreuz (IKRK) aktiv beteiligt, das auch weitere NGOs mobilisierte und die Medien mit Informationen versorgte. Zudem reisten IKRK-Delegierte in verschiedene Länder, um sich mit Regierungsvertretern zu treffen. Entscheidend für den Erfolg war letztlich die Unterstützung des Europäischen Parlaments, der Afrikanischen Union und der Interparlamentarischen Union.

Die Mitgliedstaaten der UN-Waffenkonvention haben ihre wachsende Sorge über die zunehmende Automatisierung von Waffensystemen bereits auf mehreren Konferenzen thematisiert. Auf einem Gipfel 2013 wurden alljährliche informelle Expertentreffen zum Thema LAWS beschlossen. Dabei wurde bereits erreicht, diese Waffen als eigene Kategorie innerhalb der Rüstungskontrollsystems zu definieren; am Ende will man ein neues Zusatzprotokoll über den Einsatz von LAWS aushandeln. Bisher haben sich 19 afrikanische und lateinamerikanische Länder sowie Pakistan für ein generelles Verbot von Killerrobotern ausgesprochen.

Auf der letzten Konferenz der Mitgliedstaaten der UN-Waffenkonven­tion beschlossen 88 Länder – darunter auch die technologischen Spitzenreiter auf diesem Gebiet –, formelle Gespräche über LAWS mit dem Ziel aufzunehmen, diese Waffensysteme einer völkerrechtlichen Regelung zu unterwerfen. Die eingesetzte Expertengruppe, deren nächstes Treffen für August geplant ist, soll die nächste LAWS-Jahreskonferenz vorbereiten.

Jenseits des Völkerrechts

Auf dieser Konferenz (vom 22. bis zum 24. November 2017) muss zunächst eine brauchbare Definition für „tödliche autonome Waffensysteme“ erarbeitet werden, was eine Voraussetzung für deren Ächtung ist. Eine solche Definition sollte sich am Grad der menschlichen Kontrolle orientieren, denn die allein kann die Einhaltung der Genfer Konventionen garantieren. Schon heute können Roboter selbstständig Ziele auswählen. Doch bislang befürwortet kein an den Gesprächen beteiligter Staat vollständig autonome Waffensysteme.

Zu klären bleibt vor allem, ob weiterhin Menschen die Entscheidung über den Einsatz – und die Grenzen – maschineller Gewalt ausüben dürfen, oder ob sie lediglich über das Ende solcher Einsätze befinden sollen. Human Rights Watch fordert eine „effektive Kontrolle“, aber ein Großteil der Staaten begnügt sich offenbar mit der wesentlich unschärferen Formulierung „nennenswerte“ (significant) Kontrolle. Frankreich möchte vor allem die Unterscheidung von unterschiedlich ­komplexen „automatischen“ Systemen und „autonomen“ Systemen ohne jegliche menschliche Supervision präzisieren.11

Am Ende könnte man sich auf die Formulierung „angemessenes Eingreifen von Menschen bei der Anwendung tödlicher Gewalt“ einigen, die sicherstellen soll, dass die Waffensysteme nur so eingesetzt werden, wie es die Menschen bestimmen. Fragt sich nur, wie das bei den unberechenbaren Bedingungen am Einsatzort zu gewährleisten ist.

Autonome Waffensysteme sind überdies danach zu beurteilen, wie sich ihr Einsatz auf zwei weitere völkerrechtlichen Prinzipien auswirkt: die Unterscheidung zwischen Kombattanten und Zivilisten und die Verhältnismäßigkeit. Wichtig ist auch, dass es klare Verantwortlichkeiten gibt: Jede Befehlskette und jede Entscheidung muss eindeutig nachvollziehbar sein, damit sich die Personen in den Kommandozentralen nicht einfach aus der Verantwortung stehlen können, indem sie auf die hohe Komplexität der Waffensysteme verweisen.

Allerdings besteht die große Gefahr, dass beim Thema LAWS nur ein Minimalkompromiss herauskommt. Die wichtigen Militärmächte üben sich noch in Zurückhaltung. Russland hat zwar keinen Einspruch gegen ein Verbot eingelegt, sperrt sich jedoch gegen formelle Verhandlungen, solange nicht klarer definiert ist, was genau als tödliches autonomes Waffensystem gilt. China befürwortet ein rechtsverbindliches Abkommen, hat jedoch – ebenso wie Indien – starke Vorbehalte gegenüber den geplanten Waffeninspektionen. Und Israel lehnt ein globales Verbot sowieso ab und plädiert stattdessen für ein „schrittweises“ Vorgehen, wobei man durchaus die Vorteile sieht, die LAWS in militärischer wie in humanitärer Hinsicht bietet.

Am schwersten einzuschätzen ist die Postion der neuen US-Regierung: Im Wahlkampf spielte LAWS keine Rolle, und auch der neue Verteidigungsministers James Mattis hat sich zu dem Thema nicht geäußert. In der Vergangenheit wurde ein Verbot autonomer Waffensystem von Washington als „voreilig“ bezeichnet. Aber man unterstützte die Bemühungen der UN-Waffenkonvention wie auch die Erarbeitung „geeigneter Verfahren“ zur Waffenkontrolle, die man als „Zwischenschritt“ zu einem LAWS-Abkommen betrachtete.

Mary Wareham, Koordinatorin der internationalen HRW-Kampagne zum Verbot von Killerrobotern, begrüßt die jüngsten Fortschritte bei den Verhandlungen: „Indem die Staaten eine Expertengruppe eingerichtet haben, um die Verhandlungen zu formalisieren, wird die Frage künftig nicht mehr nur von externen Wissenschaftlern diskutiert. Ich hoffe, dass dadurch endlich Bewegung in die ganze Sache kommt.“

Zu einem neuen Protokoll der UN-Waffenkonvention wird es in absehbarer Zeit jedoch nur dann kommen, wenn staatliche und nichtstaatliche Akteure den Druck auf internationaler Ebene aufrechterhalten. Die in der UN-Charta verankerten Ziele „Friedenssicherung“ und „internationale Sicherheit“ lassen sich nur schützen, wenn die Gefahr der weiteren Verbreitung von Killerrobotern im Keim erstickt wird.

1 Siehe „Robotisation de la guerre: le soldat SGR-A1, l’ultime sentinelle“, Contrepoints.org, 7. Januar 2015, sowie „Samsung Techwin SGR-A1 Sentry Guard Robot“, GlobalSecurity.org, 11. Juli 2011.

2 Siehe Ronan Doaré, Didier Danet und Gérard de Boisboissel (Hg.), „Drones et killer robots. Faut-il les interdire?“, Rennes (P. U. R.) 2015.

3 Defence Science Board, „Summer Study on Autonomy“, Washington, Juni 2016.

4 Sputniknews.com, 19. Oktober 2015.

5 Zitiert nach: BreakingDefense.com, 15. September 2016. Ganz ähnlich äußert sich der Kommandeur der russischen Spezialstreitkräfte, Oleg Martianow: „Technologie kann [. . .] niemals Menschen auf dem Schlachtfeld ersetzen.“ Zitiert nach einem Bericht über „Weapons of the Future“ des regierungsnahen Nachrichtenportals Sputnik International, 27. Februar 2017.

6 „The Pentagon’s ,Terminator Conundrum: Robots that could kill on their own“, The New York Times, 25. Oktober 2016.

7 „Killer Robots and the concept of meaningful human control“, Memorandum an die Delegierten der UN-Waffenkonvention, Human Rights Watch, April 2016.

8 Julien Ancelin, „Les systèmes d’armes létaux autonomes (SALA): enjeux juridiques de l’émergence d’un moyen de combat déshumanisé“, La Revue des droits de l’homme, Oktober 2016.

9 futureoflife.org/open-letter-autonomous-weapons.

10 Bemühungen, auch den Einsatz von Streumunition durch ein Zusatzprotokoll zu verbieten, sind bislang gescheitert. Seit 2010 ist jedoch das „Übereinkommen über Streumunition“ in Kraft (außerhalb der UN-Konvention), das bis April 2016 über 100 Staaten unterzeichnet haben.

11 So der französische Vertreter bei einem informellen Expertentreffen über LAWS im Rahmen der UN-Waffenkonvention, 13.–17. April 2015.

Aus dem Französischen von Richard Siegert

Édouard Pflimlin ist Journalist und wissenschaftlicher Mitarbeiter am Institut de relations internationales et stratégiques.

Le Monde diplomatique vom 09.03.2017, Édouard Pflimlin