Killer Roboter - Persönliche Reflektionen über KI in tödlichen Waffensystemen

Killer Roboter

Persönliche Reflektionen über KI in tödlichen Waffensystemen

Marisa Tschopp
von Marisa Tschopp
am 03. Oktober 2019
Lesezeit: 13 Minuten

Keypoints

Das ist die Zukunft der Killer Roboter

  • Tödliche autonome Waffensysteme werden auch Killerroboter genannt
  • Killerroboter sollten in der Lage sein, ein Ziel ohne menschliche Aufsicht (inhärente KI) zu erkennen, auszuwählen und zu zerstören
  • Es gibt starke Meinungen für und gegen Killerroboter, verbindliche Regelungen gibt es bisher nicht
  • Die Gesellschaft muss verstehen, wie man Technologie sicher einsetzt und mögliche Konsequenzen abschätzt
  • Mit zunehmender Technologie wächst die individuelle Verantwortung für jeden Einzelnen

Vor ein paar Wochen traf ich mich mit einer ehemaligen Kollegin, die vor über 15 Jahren mit mir als Maskenbildnerin in einem schönen Hotel in Deutschland gearbeitet hatte. Wir machten Hand- oder Gesichtsbehandlungen, bei denen ich sogar die Gelegenheit hatte, die Nägel von keiner anderen als Alanis Morisette zu lackieren, die an diesem Tag ein Konzert gab. Das Hotel wurde vor vielen Jahren geschlossen und wir sprachen darüber, was wir jetzt tun. Sie erzählte mir stolz, dass sie in ihrem Haus, im Keller, einen eigenen Schönheitssalon mit grossartigen Produkten, Kerzen, Blumen und all diesen Schönheitsartikeln eröffnet hat. Sie liebt es. Und Du? Fragte sie neugierig. Ich sagte, ich forsche an Killerrobotern. Ende des Gesprächs.

Viele Leute, denen ich über das Thema, wie KI und Robotik in der Kriegsführung eingesetzt werden, erzähle, reagieren überrascht, neugierig, verängstigt oder sogar irritiert. Ich stelle fest, dass diese Reaktionen insbesondere von Müttern, Psychologen, Geschäftsinhabern oder anderen Personen kommen, jene also, die nicht auf dem Gebiet der Informatik oder des Militärs tätig sind.

Aber wer bin ich, dass ich über Killerroboter sprechen kann? Ich bin weder Computerexperte noch Experte für Politik, Militär oder internationales Recht. Vor einigen Jahren verliess ich die Schönheitsindustrie, um Wirtschaft und Psychologie zu studieren. Ich arbeitete später an einer Universität, als ich an einer Präsentation von IBM teilnahm, wo ich eine KI, den Watson, zum ersten Mal live erlebte. Dieser Watson führte eindrücklich vor, wie er den Weltmeister in der TV-Quizshow Jeopardy besiegen konnte. Was mich am meisten fasziniert hat an diesem Tag, waren nicht nur die Fähigkeiten von Watson, sondern vielmehr die Reaktionen der Menschen, die mit mir an diesem Vortrag waren. Ich war überwältigt von der Angst und dem Widerstand den ich in den Augen anderer Menschen sah.

An diesem Tag beschloss ich, mich eingehender mit dieser bizarren Faszination zu befassen, die künstliche Intelligenz und Robotik umgibt. Ausserdem wollte ich als Mutter von zwei Kindern wissen, wie sich diese Technologie auf die Zukunft meiner Kinder auswirkt. Ich stelle mir eine Zukunft vor, in der sie sicher und geschützt sind. Wo Technologie neben menschlichen Werten voranschreiten kann. Aber, als ich zum ersten Mal von KI in Waffen hörte, war ich zutiefst beunruhigt, da dies weit entgegen meinem Bedürfnis nach Frieden und Harmonie steht. Diese sogenannten Killerroboter sind Maschinen, die ein Ziel (einen Menschen oder ein anderes Objekt) erkennen, auswählen und zerstören können (bzw. sollen), ohne dass ein Mensch es überwacht, also eingreifen kann. Neben dieser Unfassbarkeit gab es aber auch diese bizarre Anziehungskraft und Neugier, was für mich Grund genug war, dass es sich nicht nur lohnt, dies zu erkunden, sondern auch, wo ich die Gelegenheit bekomme, konkrete Massnahmen in Bezug auf das Erbe zu ergreifen, das ich für zukünftige Generationen hinterlassen möchte.

Es geht nicht nur um Anteilnahme. In diesem Fall ist es eher ein Wagnis, dies zu einem Anliegen zu machen.

Aber ich bin wahrscheinlich nicht die Einzige, die fragt: Mit welchen Recht kann ich darüber reden? Beim klassischen Imposter-Syndrom hält einen die Angst vor dem Scheitern zurück, etwas Neues zu lernen. Besonders Frauen sind äusserst zurückhaltend, wenn sie sich nicht als Expertinnen fühlen, da dies weit ausserhalb der Komfortzone liegt. Anscheinend beginnt das Lernen jedoch ausserhalb der Komfortzone. Warum also nicht versuchen, ob es sich lohnt?

Einmal habe ich ein Twitter-Gespräch verfolgt. Dieser Experte für tödliche autonome Waffen sagte, dass das Thema nicht sehr kompliziert ist, und dass jeder mitdiskutieren kann! Dann ging es weiter zu Katzen. Zu dieser Zeit schämte ich mich ziemlich, dass das Thema für mich eher schwer zu verstehen war. Später erst verstand ich die Absicht dahinter. Er wollte die Schwelle für Nicht-Experten senken, um in diese so wichtige Diskussion einzutreten.

Dieses Herunterspielen kann sich jedoch sehr negativ auswirken, auch wenn wir helfen wollen. Dasselbe gilt für bedrohliche Aussagen wie schockierende Videos, in denen eine dunkle Zukunft proklamiert wird. Es erzeugt Reaktanz, ein psychologisches Phänomen, das auftritt, wenn die kognitive Wahlfreiheit gefährdet ist. Es erzeugt Turbulenzen im Geist, die zu Lethargie und Verleugnung führen. Das Gegenteil von dem, was gebraucht wird. Wir müssen zusätzliche Kommunikationswege finden. Es gibt effektivere, authentischere Wege, Empathie für sich selbst (ich bin nicht sicher, wie ich darüber sprechen soll) und für andere (ich möchte verstehen, wie Sie sich dazu fühlen) zu entwickeln. Anstatt herunterzuspielen oder zu drohen, könnte man sagen: Ich bin bereits so daran gewöhnt, dass ich vergessen habe anzuerkennen, dass dies nicht so einfach zu verstehen ist und man leicht überwältigt werden kann. Wie können wir eine gemeinsame Grundlage finden, in der wir uns beide wohl fühlen, wenn wir darüber diskutieren?

Viele Menschen fühlen sich mit den moralischen Zeigefingerthemen sehr unwohl. Themen wie Krieg, Klimakrise, Impfung und mehr kann man kaum erwähnen, ohne mit den Fingern zu zeigen. Wer fühlt sich nicht schuldig, wenn Sie Ihren Tag lieber mit Katzen und Croissants verbringen möchten als auf Klimastreiks zu gehen? Aktivisten und Politiker können gut mit den Fingern zeigen (das ist ein fester Bestandteil ihrer Aufgabe!), aber laufen wir nicht Gefahr etwas Wichtiges zu verpassen?

Wenn wir andere verurteilen, verlieren wir das, was wir erreichen wollen.

Eine der am häufigsten gestellten Fragen ist: Werden Sie nicht depressiv, wenn Sie dieses Kriegsmaterial sehen? Ja, manchmal. Ich verstand jedoch, dass jeder mit seinen eigenen Gaben und Talenten dient, egal, ob es sich um Katzen, Politik oder beides handelt. Oder nichts von dem. Um die Frage etwas tiefer zu beantworten, ja, manchmal fühle ich mich in dieser Situation hilflos. Es ist jedoch nicht die Kraft der Waffen, die mir Angst macht. Es ist vielmehr die Grausamkeit des Krieges, die von Menschen verursachten Schrecken, die mich verzweifeln lassen. Nehmen wir zum Beispiel den Abu Ghraib-Skandal, bei dem US-Soldaten die Insassen grausam gefoltert haben. Aber jetzt verstehe ich, warum Menschen auf die Idee kommen solche Menschen durch Roboter zu ersetzen. Man kommt kaum herum zu fragen: Hätte diese Gräueltaten verhindert werden können?

Maschinen sehen die Welt nicht so wie Menschen. Sie kennen weder Stress noch Angst. Sie haben nicht den Wunsch, zu dominieren oder nach Rache zu dürsten. Was wäre, wenn eine Maschine in kritischen Situationen unberührt von menschlicher Hysterie übernehmen würde? Obwohl sich der Gedanke an Roboter, die Töten können, unendlich falsch anfühlt, komme ich nicht umher zu fragen: Was wäre, wenn? Was wäre, wenn dies eine bessere Möglichkeit wäre, bewaffnete Konflikte zu lösen? Was wäre, wenn es helfen würde, nur die Bösen zu töten? Was wäre, wenn weniger Soldaten in den Krieg geschickt werden müssten, um zu sterben und ihre Freunde und Familien elendig zurücklassen?

Was wäre, wenn eine KI den Krieg humaner machen würde?

Um diese Frage zu beantworten, muss man verstehen, wie künstliche Intelligenz und Krieg funktionieren. Wie kann man sich solch komplexen und sensiblen Themen nähern? Um zu verstehen, wie und warum KI im Krieg ist, fand ich es sehr nützlich, den OODA-Loop zu betrachten, der ein militärisches Konzept für die Entscheidungsfindung darstellt. Es hilft, weil es auf der Ebene des Individuums agiert, was es einfacher macht, die Perspektive einer anderen Person einzunehmen, als zu versuchen, ein System zu verstehen. Denken Sie daran, es geht um Verteidigung, wo das Militär sein Land und die Zivilbevölkerung verteidigen will. Diese Idee verdient Unterstützung, denn es gibt Soldaten in Kriegsgebieten, die geschützt werden müssen, oder?

Verschiedene Technologien können helfen, diese Soldaten zu schützen, um genauer und effektiver zu agieren: Bei der technologischen Verbesserung der Kriegsführung geht es darum, schneller als ein angreifender Gegner zu sein. Der Militärstratege John Boyd entwickelte die oben genannte OODA-Schleife. Die Schönheit dieser OODA-Schleife liegt in ihrer Einfachheit und Intuitivität. Es hilft, (1) das menschliche Verhalten und die Entscheidungsfindung sowie (2) die Konzepte der künstlichen Intelligenz entlang des Autonomiekontinuums und nicht zuletzt die unterschiedlichen Möglichkeiten für das Zusammenwirken von Menschen und Maschine (3), zu verstehen in, on oder off the loop.

OODA steht für observe = beobachten (es gibt etwas, einen Reiz), orient = orientieren (was ist das?), decide = entscheiden (wie reagieren?) und act = handeln (etwas tun, eine Antwort). Aus psychologischer Sicht handelt es sich um das klassische Reiz-Antwort-Muster.

Das Konzept der Informationsverarbeitung in einem Computer ist diesem Reizantwortmuster ziemlich ähnlich. Ein Computer reagiert auf einen bestimmten Reiz durch eine Eingabe und reagiert auf eine bestimmte Weise. Der spannendste Unterschied liegt in der Black Box, den Prozessen, die zwischen Reiz und Reaktion ablaufen. Während das Gehirn immer aussergewöhnlich war, sind die Recheneinheiten der Computer in den letzten 30 bis 50 Jahren immer aussergewöhnlicher geworden. Einfach nur beobachten macht einen Computer nicht intelligent, es ist nur eine Kamera. Wenn eine Maschine jetzt jedoch zusätzlich zum Sensor eine Verarbeitungseinheit besitzt, in der Objekte auf der Grundlage von maschinellem Lernen erkannt werden können, können wir über Intelligenz sprechen.

Es wird jedoch interessant, sogar gefährlich, wenn selbst die Experten nicht wirklich verstehen, was in dieser Computer-Blackbox vor sich geht. Einige weltbekannte Experten behaupten, dass es eine realistische Chance gibt, dass die Menschheit die Kontrolle über diese intelligenten Systeme verliert. Vor allem, wenn sie Entscheidungen ohne menschliches Verstehen treffen können. Dies kann bedeuten, einen anderen Menschen zu töten, theoretisch einen Feind, hoffentlich keinen Freund. Um eine Ebene tiefer zu gehen, vermittelt Ihnen der OODA-Loop nicht nur ein Verständnis der menschlichen Entscheidungsfindung und Informationsverarbeitung, sondern zeigt auch die Dimensionen von Autonomie und Mensch-Maschine-Interaktion auf.

Autonomie, was sie ist und wann sie erreicht ist, ist nicht allgemein definiert. Das Ausmass der Autonomie kann auf einem Kontinuum von automatisch (nicht intelligent) über automatisiert bis autonom (intelligent) gesehen werden. Je weiter es sich in Richtung Autonomie bewegt, desto intelligenter wird eine Maschine. Für Nicht-Technologen wird es dann unheimlicher, weil es immer schwerer wird zu verstehen, was in diesem Computer vor sich geht. Dies ist ein Grund, warum Experten hart an transparenter, erklärbarer KI arbeiten, um das Vertrauen und vermutlich die Wahrscheinlichkeit der Verwendung zu erhöhen.

Was für andere einfach Algebra und Wahrscheinlichkeit ist, ist für viele eine Art Magie.

Die Magie verblasst, wenn wir AI vollständig verstehen, was unwahrscheinlich und zudem sehr unpraktisch ist. Wir benutzen normale Autos, aber die meisten wissen nicht, wie sie funktionieren. Neben einem gewissen Grundverständnis müssen wir aber wissen, wie man ein Auto sicher benutzt. Je mehr Technologie übernimmt, desto mehr werden wir zu Supervisoren. Unterschätzen wir, wie viel es braucht, in dieser Vorgesetztenrolle zu sein? Wenn es um Krieg und Autonomie bei Waffen geht, ist heutzutage irgendwo ein Mensch in der Warteschlange, der überwacht, was das Programm tut. Ein Sicherheitsnetz sozusagen, damit die Verantwortung nicht blind delegiert wird. Aber es ist immer noch unklar, wo genau sich dieser vertrauenswürdige Mensch in der Schleife befindet, den wir so dringend brauchen?

Augmented-Reality-Brillen können zum Beispiel das menschliche Sehen verbessern und Entscheidungsprozesse unterstützen, die auf mehr Daten basieren, als der Mensch möglicherweise verarbeiten oder einfach nicht sehen kann (wie Daten von Drohnen oder Menschen hinter einer dicken Mauer). Die Stimulus- und Informationsprozesse werden verbessert (vermutlich unter Berücksichtigung der Fehlerrate), aber die Ausführungsverantwortung liegt beim Menschen.

Vielleicht könnte die KI den Krieg nicht nur effizienter, sondern auch humaner machen, weil Computer keinen Emotionen wie Angst oder Hysterie ausgeliefert sind, allesamt ständige Begleiter in der Kriegsführung. Maschinen können die langweilige Arbeit erledigen, ohne müde zu werden, und können skrupellos ausgesandt werden, um die schmutzige und gefährliche Arbeit zu erledigen. Die Vision ist stark und emotional, nämlich Soldaten auf dem Schlachtfeld zu ersetzen, um Leben zu retten. Aus dem gleichen edlen Grund erfand Richard Gatling die automatische Waffe: Erschaffe stärkere, schnellere Waffen, um weniger Soldaten in den Krieg zu schicken, für die man sterben musste. Aber es wurde mehr Blut vergossen als jemals zuvor. Landminen wurden gebaut, um Soldaten auf den Schlachtfeldern zu ersetzen, aber es kam zu über 20000 Tötungen pro Jahr, oft unschuldige Frauen und Kinder, bevor Landminen 1997 verboten wurden. Chemische, biologische und Atomwaffen sind verboten. Blendende Laser wurden verboten, bevor sie überhaupt ein Schlachtfeld sahen. Diese Art von präventivem Verbot tödlicher autonomer Waffen wird von Experten seit vielen Jahren gefordert. Bisher wurde jedoch kein solcher Vertrag geschlossen. Unter anderem investieren die USA, Grossbritannien und China enorme Summen in die Erforschung und Entwicklung von KI in Waffen. KI scheint das lang erwartete Allheilmittel zur Beseitigung menschlicher Schwächen zu sein. Wir lagern die Verantwortung aus, auch wenn wir so tun als wären wir “on the loop”. Diese Maschinen können jedoch so schnell reagieren, dass der Mensch einer sinnvollen Überwachung und Entscheidung nicht einmal nahekommt.

Die Idee, dass KI den Krieg humaner macht, ist eine Illusion.

KI macht Konflikte noch chaotischer. Wir überschätzen nicht nur die Fähigkeiten der Maschinen, eine Entscheidung zu treffen, sondern auch unsere eigenen Fähigkeiten, eine solche Maschine zu bauen oder zu überwachen. Ganz zu schweigen von der Tatsache, dass keine Maschine diejenige sein sollte, die ein Leben nimmt, eine Linie, die wir niemals überschreiten dürfen. Aber seien wir ehrlich: Der Wunsch, KI im Krieg einzusetzen, entspringt möglicherweise nicht dem Wunsch zu töten, sondern es ist immer noch die Idee, etwas zu erfinden, um Menschenleben zu retten. Letztendlich möchte jeder Mensch (mit Ausnahme schwer psychisch Erkrankter) Frieden und Sicherheit. Wir wählen einfach verschiedene Strategien, um dorthin zu gelangen. Aber tödliche autonome Waffen sind eine sehr gefährliche Strategie, um Ziele zu erreichen.

Wenn wir Konflikte humaner machen wollen, müssen wir uns an Menschen wenden, nicht an Maschinen.

Wir leben in interessanten Zeiten, Veränderungen brauchen wir auf Systemebene, aber auch auf persönlicher Ebene. Diese Tage der Entscheidung, wie wir Technologie zum Wohle der Menschheit einsetzen wollen, gehören uns und die Zeit ist jetzt. Wir alle, vor allem aber wir Psychologen, verfügen über die einzigartigen Fähigkeiten, Dilemmata der Disharmonie zu lösen, bevor sie eskalieren. Egal, ob Sie ein Maskenbildner in Ihrem Keller oder der Präsident der Vereinigten Staaten sind, Sie können der Mensch “in the loop” sein.

Literatur

Über die Autorin

Marisa Tschopp

Marisa Tschopp hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Sie ist aktiv in der Forschung zu Künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat unter anderem schon Vorträge an TEDx Events gehalten und vertritt zudem die Schweiz als Ambassador in der Women in AI (WAI) Initiative. (ORCID 0000-0001-5221-5327)

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Vertrauen und KI

Vertrauen und KI

Marisa Tschopp

Sprechen statt Tippen

Sprechen statt Tippen

Marisa Tschopp

Voice User Interfaces

Voice User Interfaces

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv