Stop Killer Robots – Autonome Waffensysteme verhindern und weltweit ächten

Neue Waffentechnologien haben die Kriegsführung in der Vergangenheit oft verschlimmert und grausamer gemacht. Das gilt insbesondere für die Entwicklung von Massenvernichtungswaffen. Heute stehen wir wieder am Anfang einer neuen folgenschweren Entwicklung. Die Entwicklungen in der Informationstechnologie und der „Künstlichen Intelligenz“ (KI) machen auch vor Waffen und einer militärischen Nutzung nicht halt. Mit den richtigen Regeln und klaren Grenzen gibt es zwar Bereiche, wie das vollautonome Minenräumen, mit potentiellen Chancen für die Sicherheitspolitik, es droht aber gleichzeitig eine Kriegsführung, in der Algorithmen über Leben und Tod entscheiden.

Die Forschung an solchen vollautonomen Waffensystemen, so genannten Lethal Autonomous Weapon Systems (LAWS) findet bereits statt. Sie ist finanziell gut ausgestattet und verläuft in rasanter Geschwindigkeit. Es ist drei vor zwölf, da einige Länder in Einzelfällen bereits Systeme in Betrieb nehmen. In Kürze droht, dass in vielen Streitkräften autonome Waffensysteme eine zentrale Rolle einnehmen. LAWS werden sich aufgrund der auf Sekundenbruchteile minimierten Reaktionszeit nur mit anderen LAWS bekämpfen lassen, so dass wir ein massives, ungebremstes Wettrüsten befürchten. Viele Staaten sehen sich daher bereits in einem Sicherheitsdilemma, wenn sie sich diesem Trend entziehen. Diese Situation ist vergleichbar mit ABC-Waffen, wo Lösungen (bei Chemie und Bio-Waffen) ausschließlich durch eine vertragsbasierte Ächtung möglich waren. Die Verbreitung autonomer Waffentechnologien droht die Hemmschwelle für einen Gewalteinsatz weiter zu senken. Durch die Geschwindigkeit von Aktion und Reaktion zwischen LAWS wächst die Gefahr, dass sich konventionelle Konflikte ausweiten und eskalieren. Aber auch der Einsatz von Atomwaffen kann wahrscheinlicher werden, wenn ihr Einsatz durch autonome Systeme ausgelöst werden kann. Außerdem könnten autonome Waffensysteme auch zu Grenzkontrollen, in der Polizeiarbeit oder gegen Demonstrationen eingesetzt werden.

Durch den Einsatz autonomer Waffensysteme kämen viele dringende politische, ethische, völkerrechtliche und praktische Fragen und Probleme auf uns zu. Schon heute strukturieren Computer Entscheidungen von Soldat*innen vor. Die Zahl der Funktionen, die Waffensysteme bereits automatisch oder auch autonom ausführen können, nimmt kontinuierlich zu. Sie erkennen anhand von Parametern mögliche Ziele oder gesuchte Objekte. Die letztendliche Entscheidung über den Einsatz tödlicher Gewalt muss aber beim Menschen bleiben. Deshalb stellen wir uns einer schleichenden Abgabe der menschlichen Verantwortung klar entgegen und wollen das humanitäre Völkerrecht stärken.

Automatisierte Abläufe – ob durch Technik oder durch Befehlsketten – können ungewollt folgenschwere Eskalationsdynamiken in Gang setzen. Menschen haben ethische Grundsätze, die weit über die rechtlichen Rahmenbedingungen hinausreichen. Sie können auf ihr Gewissen hören. Sie können Gnade walten lassen und sich im Zweifel für das Leben entscheiden. So gab es in den letzten

Jahrzehnten mehrere Situationen, in denen menschliches Zögern und nochmaliges Überprüfen eine Eskalation verhinderten. Autonome Waffensysteme verstehen jedoch nicht, was es bedeutet, einen Menschen zu töten. Sie verfügen über kein Gewissen, keine ethischen Grundsätze oder über eine mit der menschlichen Intelligenz vergleichbare Entscheidungskompetenz. Für sie ist auch das menschliche Leben nur ein Datenpunkt. Die Entscheidung zu töten darf niemals durch Algorithmen getroffen werden. Wird ein Mensch zum Objekt einer maschinellen Entscheidung, wird er damit in seiner Menschenwürde verletzt.

Wir halten den Einsatz von autonomen Waffen für unvereinbar mit dem humanitären Völkerrecht. Maschinen können nicht die Verhältnismäßigkeit oder die Notwendigkeit eines Angriffs beurteilen. Der Einsatz von autonomen Waffen verstieße daher gegen das völkerrechtliche Gebot zur Verhinderung übermäßigen Leidens. Maschinen können auch nicht zuverlässig zwischen Kämpfer*innen und Zivilist*innen unterschieden. Darüber hinaus wäre unklar, wer in Fällen unkontrollierter oder fehlerhafter Entscheidungen durch künstliche Intelligenz die Verantwortung übernehmen würde oder übernehmen muss. Durch die technische Komplexität von robotischen Systemen werden Streitkräfte in Zukunft noch abhängiger von privaten Unternehmen. Der Einfluss ziviler Unternehmen, vor allem ziviler Programmierer, auf die militärischen Anwendungen wächst. Wer stünde bei von LAWS begangenen Massakern, Kriegsverbrechen oder anderen dramatischen Aktionen vor Gericht? Sicherlich nicht der*die Hersteller*in der Hardware, der*die Softwareentwickler*in oder auch einfach die Armeeführung oder das Verteidigungsministerium als solches. LAWS würden jahrelange Bemühungen zur Verrechtlichung des Krieges, der Rechenschaftspflicht von Angehörigen der Streitkräfte und der ausgeübten militärischen Gewalt ins Leere laufen lassen.

Wir als GRÜNE JUGEND fordern daher ein weltweites präventives Verbot und eine völkerrechtliche Ächtung letaler autonomer Waffensysteme sowie die Festlegung eines Mindestmaßes an menschlicher Kontrolle (meaningful human control) bei jeder Entscheidung über Leben und Tod. Union und SPD haben sich zwei Mal in Folge in ihren Koalitionsverträgen von 2013 und 2018 für eine Ächtung letaler autonomer Waffensysteme ausgesprochen. Auf europäischem und internationalen Parkett waren entsprechende Initiativen der Bundesregierung entweder nicht vorhanden, oder sie kamen zögerlich und hatten zunächst die Absicht eine rechtliche bindende Ächtung durch eine rein deklaratorische Politik aufzuweichen. Mittlerweile hat sich die Gruppe der Regierungsexperten bei den Verhandlungen im UN-Rahmen auf Prinzipien (guiding principles) verständigt und die Absicht bekundet, ein „Rahmenwerk“ (operative and normative framework) zu entwickeln. Dies kann jedoch nur ein erster Schritt sein, hin zu einem völkerrechtlichen Verbot. Ziel muss die internationale Ächtung vollautonomer Waffen sein. Genau daran muss sich diese Initiative messen lassen.

Im Europäischen Parlament haben Bündnis 90/Die Grünen bereits im Herbst 2018 eine Entschließung mit entsprechender Botschaft initiiert, die von einer überwältigenden Mehrheit von 566 Abgeordneten unterstützt wurde (1). Mit diesem Schwung ist es dann Anfang 2019 gelungen, in zähen Verhandlungen mit Rat und Kommission, autonome Waffensysteme aus dem 13 Milliarden Euro schweren Europäischen Verteidigungsfond auszuschließen (2). In der EU-Verordnung zum

Verteidigungsfond steht damit (wohl weltweit einmalig) eine gesetzlich verankerte Definition samt Verbot dieser neuen Technologie (3). Auch die parlamentarische Versammlung der OSZE hat sich im Juli 2019 für eine völkerrechtliche Ächtung von LAWS ausgesprochen. Ebenfalls mahnt der UN-Generalsekretär Zurückhaltung bei der Entwicklung neuer Technologien an, solange deren Vereinbarkeit mit dem humanitären Völkerrecht fraglich ist (4). Für die von uns geforderte Ächtung von letalen autonomen Waffensystemen gibt es eine breite Allianz. Pax Christi, Human Rights Watch, Amnesty International, das Internationale Komitee vom Roten Kreuz, die Gesellschaft für Informatik (GI) und der Bundesverband der Deutschen Industrie (BDI) unterstützen eine völkerrechtliche Ächtung von LAWS. Bereits im Juli 2015 haben mehr als 3000 Forscher der Fachrichtungen Künstliche Intelligenz und Robotik einen offenen Brief, der die Ächtung von Killerrobotern fordert, unterzeichnet (5). Am 21. August 2017 haben darüber hinaus 116 Gründer*innen führender Unternehmen der Robotik und der künstlichen Intelligenz einen ähnlichen Brief an die UN geschickt, darunter namenhafte Firmeninhaber*innen aus Silicon Valley (6). Von besonderer Bedeutung sind in diesem Zusammenhang die im Frühjahr 2019 beschlossenen Ethik-Leitlinien für künstliche Intelligenz der von der Europäischen Kommission eingesetzten hochrangigen Expert*innengruppe, die sich mit Blick auf Killerroboter (Paragraph 134) uneingeschränkt hinter die Forderung des Europäischen Parlaments nach einem Verbot stellt.

Um mit der rasanten technologischen Entwicklung Schritt halten zu können, ist daher dringend sofortiges politisches Handeln geboten:

  • Unser Ziel ist die weltweite, völkerrechtliche Ächtung von LAWS. Deutschland und die EU müssen auf Ebene der Vereinten Nationen (VN) im Rahmen der Certain Conventional Weapons (CCW) Verhandlungen klar für ein Verbot dieser Waffen aussprechen, auf einen verbindlichen Verbotsvertrag drängen und diesen Prozess zügig vorantreiben. Dabei müssen verbindliche Mindeststandards wirksamer menschlicher Kontrolle definiert werden.
  • Voraussetzung dafür ist eine klare Position der Bundesregierung, die erreichte Verhandlungsziele mitträgt und sich endlich wie Österreich, Brasilien, Chile, Mexiko, oder auch Belgien, Irland und Luxemburg unzweideutig für einen Verbotsvertrag einsetzt.
  • Eine weitere Voraussetzung für eine effektive internationale Ächtung ist die Erstellung einer formalen und rechtlich bindenden gemeinsamen EU-Position (Gemeinsame Aktion), die nach Innen dazu führt, dass, solange kein internationaler Verbotsvertrag besteht, bei dem die EU-Mitgliedstaaten Vertragsparteien sind, ein Moratorium bezüglich Einsatz und Export von LAWS verhängt wird; für die internationale Ebene muss diese Position das Verhandlungsziel eines Verbotsvertrages explizit festlegen. Durch die Einigung beim Europäischen Verteidigungsfond haben die 28 Mitgliedstaaten sowohl eine Definition von LAWS, als auch die Idee des Verbotes akzeptiert.
  • Es braucht ähnlich wie beim Nuklearen Nichtverbreitungsvertrag (NVV) eine Organisation, die die Entwicklung von KI im militärischen Bereich kontrolliert. Nur ein wirksames Verifikationsregime wird die Entwicklung auch langfristig stoppen.
  • Solange internationale Regelungen noch auf sich warten lassen, sollte Deutschland ein nationales Moratorium für die Entwicklung und Beschaffung von LAWS veranlassen. Auch die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) kann ein guter Rahmen für regionale Rüstungskontrolle sein.
  • Die Bundesregierung muss sich auch in der NATO für die Ächtung von LAWS einsetzen und dort gegenüber allen Partnerstaaten deutlich machen, dass sie keine Position unterstützen wird, die im Widerspruch zur Entschließung des Europäischen Parlaments zu autonomen Waffensystemen (2018/2752(RSP)) steht.
  • Wir wollen jegliche staatliche Förderung von Projekten ausschließen, welche der Entwicklung oder Nutzung von LAWS dienen. Wichtig ist jedoch auch, wie beispielsweise im Umgang mit Chemiewaffen, dass Forschung betrieben wird, wie Menschen sich gegen die Nutzung von LAWS schützen können.
  • Bei jedem potentiell tödlichen Einsatz von KI-Algorithmen in Waffensystemen der Bundeswehr muss volle menschliche Kontrolle, sowohl bei der Entscheidung, als auch bei der Ausführung, gewährleistet
  • In Ethikkommissionen, die sich mit Fragen digitaler Entwicklungen befassen, darf die sicherheitspolitische und militärische Ebene nicht ausgeblendet werden.
  • Als GRÜNE JUGEND unterstützen wir die Arbeit der „Campaign to Stop Killer Robots“.

Fußnoten:

1) Entschließungsantrag des Europäischen Parlaments zu autonomen Waffensystemen:

http://www.europarl.europa.eu/doceo/document/B-8-2018-0308_DE.html

2) Entschließung des Europäischen Parlaments vom 12. September 2018 zu autonomen Waffensystemen: http://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_DE.html

3) Artikel 11(6) EU-Verordnung: http://www.europarl.europa.eu/doceo/document/TA-8-2019-

0430_EN.pdf

4) UN: „Securing our Common future“ https://www.un.org/disarmament/publications/more/securing-our-common-future/

5) Autonomous Weapons: An open letter from AI & Robotics Researchers:

https://futureoflife.org/open-letter-autonomous-weapons/

6) An open letter to the United Nations Convention on Certain Conventional Weapons: https://www.cse.unsw.edu.au/~tw/ciair//open.pdf