Autonome Waffensysteme - Existenzielle Bedrohung?

Autonome Waffensysteme

Existenzielle Bedrohung?

Michèle Trebo
von Michèle Trebo
am 09. März 2023
Lesezeit: 10 Minuten

Keypoints

Ziele ohne menschliches Zutun auswählen und eliminieren

  • In-the-Loop-, On-the-Loop- und Out-of-the-Loop-Systeme
  • Abgeben der menschlichen Kontrolle an eine KI
  • Intelligent, präzis, leistungsfähig, schnell und erschwinglich
  • Aufrufe von Experten und renommierten Forschern aus der KI und Robotik zum Verbot autonomer Waffensysteme
  • Dynamisierung der Kriegsführung, die menschliches Reaktionsvermögen übersteigt

Der zentrale Faktor, welcher autonome Waffen von ferngesteuerten Waffen unterscheidet, ist die menschliche Kontrolle. Tödliche Waffensysteme, bei denen die Zielauswahl und die Art der Zielbekämpfung nicht einer menschlichen Kontrolle unterliegen, sondern einer künstlichen Intelligenz (KI) überlassen werden, sind sowohl aus ethischer als auch aus rechtlicher Sicht problematisch. Elon Musk, 160 Organisationen aus Forschung und Wirtschaft sowie Experten der Kampagne Stop-Killer-Robots riefen im Jahr 2018 gegen den Bau von autonomen Waffensystemen auf. Damit erwirkten sie erstmals das Bewusstsein für die Bedrohung durch autonome Waffen.

Definition autonomer Waffensysteme

Grundsätzlich können die meisten Gegenstände zu Waffen werden (Bendel, 2019, S. 321). Beispiele dafür sind Fahrradketten, Schraubenzieher oder Scheren. Diese Gegenstände wurden nicht als Waffen entworfen, können aber durchaus als solche eingesetzt werden. Das bedeutet, dass eine Waffe nicht unbedingt durch ihre äussere Gestalt erkennbar ist. Doch ab wann gilt eine Waffe als autonom? Im militärischen Kontext unterscheidet man in Abhängigkeit davon, welche Rolle der Mensch in der Kontrollschleife spielt, zwischen In-the-Loop-, On-the-Loop- und Out-of-the-Loop-Systemen. Dabei kommt es auf die Art und Weise an, wie das Zielobjekt identifiziert wird und wer den Angriff auslöst. Beim In-the-Loop-System werden sämtliche Entscheidungen (auch eine mögliche Fernsteuerung) vom Menschen getroffen. Das On-the-Loop-System folgt hingegen einem Programm. Es ist in der Lage, unabhängig von menschlichem Eingreifen in Echtzeit zu operieren. Der Mensch befindet sich aber noch immer in der Kontrollschleife und überwacht das System, sodass jederzeit die Möglichkeit zum Eingreifen besteht. Out-of-the-Loop-Systeme kommen ohne menschliche Kontrolle- und Eingriffsmöglichkeiten aus. Ein autonomes Waffensystem besitzt also die Fähigkeit, ein als Feind gekennzeichnetes Ziel aufzuspüren, zu bekämpfen und auszuschalten, ohne dass dabei ein Mensch Einfluss auf diesen Prozess nimmt (Lee & Chen, 2022, S. 375). Ein solches Szenarium wird im Kurzfilm Slaughterbots gezeigt (Bendel, 2019, S. 320). Was auf den ersten Blick wie ein Dokumentarfilm wirkt, ist Fiktion. Die im Kurzfilm gezeigten Mini-Drohnen können eine bestimmte Person aufspüren und mit einer geringen Menge Dynamit, welche der Zielperson durch den Kopf geschossen wird, töten. Da KI und Robotik immer zugänglicher und erschwinglicher werden, werden in naher Zukunft auch Roboter in der Lage sein, ähnliche Funktionen zu erfüllen (Lee & Chen, 2022, S. 375-376). Die enormen Fortschritte im Bereich der KI beschleunigen auch die Entwicklung autonomer Waffen. Diese Roboter werden immer intelligenter, präziser, leistungsfähiger, schneller und kostengünstiger. Zudem erwerben sie neue Fähigkeiten wie etwa die Schwarmbildung durch Kooperation und Redundanz.

Vorteile

Aus militärischer Sicht bietet ein Out-of-the-Loop-System im praktischen Einsatz die grössten Vorteile (Bendel, 2019, S. 322). Es agiert in einer Geschwindigkeit, die das menschliche Reaktionsvermögen weit übertrifft, worin ein entscheidender strategischer Gewinn liegen kann. Zudem erfordert es keine permanente Kommunikation zwischen System und Mensch. Aus diesem Grund kann es weniger leicht von Feinden entdeckt, gestört oder ausser Gefecht gesetzt werden. Auch die Kostenreduktion und Skalierbarkeit in Gruppen stellen Vorteile dar. Ein Bestandesdefizit kann kompensiert werden, indem trotz einer geringen Anzahl Streitkräften an der Front Aufgaben effizienter, dauerhafter und effektiver erfüllt werden können. Eine beeinträchtigte Kommunikation nicht oder nur schwer zugängliches Gelände oder schwer erträgliche, gefährliche und zeitraubende Einsätze, bei denen Menschen an ihre Grenzen stossen, sind für autonome Waffen kein Problem. Zudem handeln sie rational und können defensiv gegen Attentäter und Verbrecher eingesetzt werden. Kriege könnten von Maschinen ausgefochten werden und so die Leben von zahlreichen Soldaten verschont bleiben (Lee & Chen, 2022, S. 376). In den Händen eines verantwortungsvollen Militärs helfen autonome Waffensysteme dabei, versehentliche Tötungen von befreundeten Streitkräften, Kindern und Zivilisten zu vermeiden.

Nachteile

Ein grosser Nachteil autonomer Waffensysteme ist der moralische Aspekt (Lee & Chen, 2022, S. 376-377). Ethische und religiöse Systeme betrachten die Tötung eines Menschen als verwerfliche Tat. Im Falle eines Irrtums stellt sich zudem die Frage, wer dafür verantwortlich ist. Diese Verantwortungsdiffusion könnte Aggressoren von der Schuld für Unrechtstaten oder Verstösse gegen das humanitäre Völkerrecht freisprechen, was wiederum die Schwelle für Kriege senkt. Weiter vereinfachen autonome Waffen die Durchführung eines Anschlags. Die Selbstopferung eines Menschen stellt nach wie vor eine hohe Hürde dar, auf welche durch den Einsatz von autonomen Waffensystemen bei einem Anschlag verzichtet werden könnte. Durch die Gesichts- oder Gangerkennung sowie die Nachverfolgung von Telefon- und Netzwerksignalen aus dem Internet der Dinge (IoT) können autonome Waffen Einzelpersonen ausfindig machen. Dies ermöglicht sowohl den Einzelmord als auch den Genozid an einer beliebigen Menschengruppe. Darüber hinaus bedeutet eine grössere Autonomie ohne das Verständnis für die übergeordneten Fragen, dass das Tempo der Kriegsführung sowie die Wahrscheinlichkeit von Eskalationen wie beispielsweise ein Atomkrieg erhöht wird und somit auch die Opferzahlen steigen. Da autonome Waffensysteme wie kleine Drohnen kostengünstiger und verfügbarer geworden sind, bietet das schwachen Gegnern und nicht staatlichen Akteuren die Möglichkeit, auf Distanz erhebliche Wirkung zu erzielen. Die Abwehr solcher Systeme ist mit einem erheblichen Aufwand verbunden. Besonders Schwärme unterschiedlicher Systeme sind schwierig zu bekämpfen. Eine weitere Herausforderung stellt die Unterscheidung von feindlichen, zivilen und eigenen Systemen dar. Die Autonomie zu nutzen, aber gleichzeitig die menschliche Kontrolle über wichtige Entscheidungen wie die Zielneutralisierung zu behalten, ist schwierig.

Grenzen

Eine KI besitzt, anders als ein Mensch, weder den Alltagsverstand noch die Fähigkeit zu bereichsübergreifendem Denken (Lee & Chen, 2022, S. 377). Egal wie gut ein autonomes Waffensystem trainiert ist, die Begrenzung auf einen bestimmten Einsatzbereich hält es davon ab, die Folgen seiner Aktionen vollumfänglich zu verstehen. Deshalb müssen gewisse Aktionen wie beispielsweise Massnahmen zur Terrorismusbekämpfung nach wie vor von Menschen ausgeführt werden. Berkeley-Professor Stuart Russel sagt, dass die Fähigkeit autonomer Waffen stärker durch Gesetze der Physik als durch Mängel in KI-Systemen eingeschränkt wird.

Bedrohung durch autonome Waffensysteme

Militärische Überlegenheit hatte schon immer nationale Priorität (Lee & Chen, 2022, S. 377-379). Durch autonome Waffensysteme wird dieses Problem weiter verschärft. Denn die schnellsten, am besten getarnten, tödlichsten Waffen gewinnen meist den Krieg. Dazu kommen die geringen Kosten, welche die Eintrittsschranke senken. Ein gutes Beispiel dafür ist Israel mit ihren leistungsstarken Technologien. Sie sind bereits heute mit einigen der fortschrittlichsten militärischen Roboter, einige kleiner als eine Fliege, in den Rüstungswettlauf eingestiegen. Da alle Länder davon ausgehen müssen, dass ihre potenziellen Gegner autonome Waffen bauen, sind sie gezwungen mitzuhalten. Der Berkeley-Professor Stuart Russell sagt, dass wir mit Plattformen rechnen müssen, deren Beweglichkeit und Vernichtungskraft Menschen nichts entgegensetzen können. Wird diesem multilateralen Wettrüsten freien Lauf gelassen, könnte dies also zur Auslöschung der Menschheit führen. Für Kern- und Atomwaffen gilt die Abschreckungstheorie. Wer einen Erstschlag ausübt, muss mit einer Gegenreaktion und folglich mit der eigenen Zerstörung rechnen. Da sich ein Erstschlag durch autonome Waffensysteme womöglich nicht zurückverfolgen lässt, besteht auch keine Gefahr eines vernichtenden Vergeltungsschlags. Ein Erstangriff, nicht mal zwingend von einem Land, sondern womöglich durch Terroristen und nicht staatliche Akteure, könnte eine Eskalation herbeiführen und stellt damit eine grosse Bedrohung dar. Grundsätzlich lässt sich aber nie ausschliessen, dass Waffen gehackt werden, was nicht vorhersehbare und unkontrollierte Risiken mit sich bringt (Bendel, 2019, S. 320).

Mögliche Lösungen

Um eine existenzielle Bedrohung für die Menschheit abzuwenden, wurden verschiedene Lösungen vorgeschlagen (Lee & Chen, 2022, S. 379-380). Eine der Lösungen stellt der Mensch-am-Abzug-Ansatz dar. Dabei muss jede Entscheidung über die Tötung eines Menschen von einem Menschen getroffen werden. Dies würde allerdings die Leistungsfähigkeit autonomer Waffensysteme bezüglich Schnelligkeit und möglicherweise Präzision beeinträchtigen. Zudem ist diese Lösung schwer durchsetzbar und bietet die Möglichkeit für Schlupflöcher. Eine zweite Lösung, die sowohl von der Kampagne Stop-Killer-Robots als auch von 3000 Personen, darunter Elon Musk, der verstorbene Stephen Hawking und KI-Experten vorgeschlagen wurde, wäre ein Verbot. Biologen, Chemiker und Physiker haben in der Vergangenheit bereits ähnliche Vorstösse gegen biologische, chemische und Kernwaffen unternommen. Obwohl sich ein solches Verbot nicht leicht erreichen lässt, werden frühere Verbote gegen blendende Laser, chemische Waffen und biologische Waffen offenbar eingehalten. Russland, die Vereinigten Staaten und Grossbritannien sind aktuell die grössten Gegner eines Verbots autonomer Waffen. Sie begründen ihren Standpunkt damit, dass es zu früh für ein solches Verbot ist. Ein dritter Lösungsansatz besteht im Regulieren autonomer Waffen. Auch dies gestaltet sich aber schwierig, da dafür eine sachgerechte, nicht allzu breit gefasste technische Spezifizierung erforderlich ist. Den Begriff «autonome Waffen» eindeutig zu definieren und zu eruieren, wie Regelverstösse überprüft werden sollen, ist auf kurze Sicht ein grosses Hindernis. Allerdings könnte man spekulieren, dass man sich in einigen Jahren auf ein Abkommen einigt. Andernfalls wäre es sogar möglich, dass zukünftige Kriege nur noch von Robotern oder auf Software-Ebene ausgefochten werden und dadurch Menschenopfer verhindert werden könnten. Doch diese Ideen sind aktuell noch nicht realisierbar.

Zusammenfassung

Autonome Waffensysteme werden als dritte Revolution nach der Einführung der Feuer- und Atomwaffen, die eine neue Qualität der Kriegsführung mit sich bringen, betrachtet (Bendel, 2019, S. 320). Es droht eine Ausweitung bewaffneter Konflikte und eine extreme Dynamisierung der Kriegsführung, die das Reaktionsvermögen eines Menschen übersteigt. Autonome Waffen werden rasant intelligenter, wendiger, tödlicher und erschwinglicher, wodurch die Bedrohung weiter steigt (Lee & Chen, 2022, S. 380). Das unvermeidliche Wettrüsten beschleunigt den Einsatz autonomer Waffen zusätzlich. Das Abgeben der menschlichen Kontrolle an eine KI hat zwar ihre Vorteile, doch die Nachteile überwiegen. Ethische Wertmassstäbe kollidieren mit dem Einsatz von KI in Zusammenhang mit autonomen Waffensystemen am deutlichsten und bedrohen den Fortbestand der Menschheit. Experten und Entscheidungsträger stehen in der Pflicht, verschiedene Lösungsansätze zur Verhinderung und Verbreitung autonomer Waffen abzuwägen und schnellstmöglich ein umsetzbares Ergebnis vorzulegen. Doch bis anhin wurden keine konkreten Schritte in Richtung eines Verbots autonomer Waffensysteme unternommen, sondern nur die Notwendigkeit von weiteren Gesprächen festgestellt (Bendel, 2019, S. 321). Nebst dem mangelnden politischen Willen insbesondere derjenigen Akteure, die in der Lage sind, autonome Waffensysteme zu entwickeln, bestehen definitorische Schwierigkeiten. Die präzise Abgrenzung autonomer Waffen zu anderen Waffengattungen ist schwierig. Denn dafür braucht sowohl die Berücksichtigung des aktuellen Standes der Technik als auch zukünftiger Entwicklungen, um ein wirksames Verbot zu formulieren.

Literatur

Über die Autorin

Michèle Trebo

Michèle Trebo hat einen Bachelor in Informatik an der ZHAW abgeschlossen und war sechs Jahre lang als Polizistin, unter anderem zur Aufklärung und Auswertung von Cybercrime, tätig. Sie zeichnet sich im Bereich Forschung für kriminalistische Themen wie Darknet, Cyber Threat Intelligence, Ermittlungen und Forensik verantwortlich. (ORCID 0000-0002-6968-8785)

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Von der Krise zur Chance

Von der Krise zur Chance

Michèle Trebo

Open Source Intelligence Investigation

Open Source Intelligence Investigation

Michèle Trebo

Chatbot-Scams

Chatbot-Scams

Michèle Trebo

IT-Forensik

IT-Forensik

Michèle Trebo

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv