• Jolanda Rose

“Autonomie in Waffensystemen ist nicht neu. Es braucht dafür kein Machine Learning.”

Aktualisiert: Juni 21



Dr. Frank Sauer ist Politikwissenschaftler, Senior Research Fellow an der Universität der Bundeswehr München und Head of Research am Metis Institut für Strategie und Vorausschau. Im Interview erläutert er die historischen und aktuellen Entwicklungen mit Blick auf Autonomie in Waffensystemen, die Bedeutung ethischer Prinzipien für die Regulierung dieser Technologie und warum neues Völkerrecht geschaffen werden muss.

Jolanda Rose: Sie haben einen bunten Strauß an Studienfächern studiert und beschäftigen sich nun wissenschaftlich mit dem Thema Autonomie in Waffensystemen. Das ist für einen Sozialwissenschaftler ein außergewöhnlicher Themenschwerpunkt. Wie ist dieser Weg oder das Interesse für dieses Gebiet zustande gekommen? Frank Sauer: Ursprünglich lag mein Forschungsschwerpunkt auf Nuklearwaffen. Was für einen Politikwissenschaftler, der sich in der internationalen Politik bewegt, nicht unbedingt sonderlich ungewöhnlich ist. Denn grundlegende Fragen, die sich beim Umgang mit Nuklearwaffen stellen, sind für Politikwissenschaftler, die sich mit internationaler Politik beschäftigen, interessant. Wie wirken sich Nuklearwaffen auf die Machtverteilung im internationalen System aus? Welchen Zusammenhang gibt es mit Krieg und Frieden bzw. welche Folgen haben diese Waffen für Krieg? Warum Nuklearwaffen nach 1945 nie wieder im Krieg eingesetzt wurden, war das Thema meiner Dissertation. Ich beobachte aber auch über das Feld der Nuklearwaffen hinaus stets, welche interessanten Entwicklungen es im Bereich Militär, Kriegsführung und insbesondere natürlich auch Rüstung und Rüstungskontrolle gibt. 2007 habe ich an der Universität der Bundeswehr in München angefangen. Damals habe ich eine Studie von Ronald Arkin auf den Tisch bekommen. Die hieß „Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/ Reactive Robot Architecture”. Diese Studie hat mir bewusst gemacht, dass die nächste Generation von unbemannten Waffensystemen nicht mehr von Menschen ferngesteuert sein wird, sondern von Software. Meine Auseinandersetzung damit galt danach für einige Jahre als eher exotisches Thema. Ich kam schnell in den Verdacht, zu viel Terminator geguckt zu haben. Aber ab 2010 ungefähr wurde das Ganze in Fachkreisen wirklich ernst genommen. Ab 2013/2014 hat dann die UN angefangen darüber zu sprechen. Damit begann auch das mediale Interesse an dem Thema. Mittlerweile gibt es dazu schon wahnsinnig viel Forschung. Vor ein paar Jahren konnte ich noch alles lesen, was publiziert wird, aber das schaffe ich schon lange nicht mehr. Jolanda Rose: Wenn viel geschrieben wird, besteht ja die Hoffnung, dass gute Konzepte entwickelt werden. Nur nochmal zur Klarstellung: Wenn Sie von automatisierten Waffen sprechen oder von Waffen und KI - was meinen Sie genau? Sie haben ja gerade schon gesagt, das sind dann einfach Waffen, die nicht mehr von Menschen kontrolliert werden. Wo genau zieht man da die Grenze oder wie wird es eingeordnet? Frank Sauer: Jede militärische Operation, die mit der Bekämpfung eines Zieles endet, können sie in bestimmte diskrete Segmente oder Schritte aufteilen – das kann man „kill chain“ oder auch „targeting cycle“ nennen. Dafür gibt es verschiedene Begriffe und die einzelnen Schritte werden auch nicht immer überall genau gleich segmentiert. Aber im Großen und Ganzen findet immer Folgendes statt: Sie müssen ein Ziel finden, es fixieren, wenn es sich bewegt, verfolgen und für die Bekämpfung auswählen. Dann wir das Ziel bekämpft - und eventuell geht es dann, nach dem man das Ergebnis evaluiert hat, nochmal von vorne los (eng. “find, fix, track, select, engage, assess”). „Automatisierte“ oder „autonome“ – auf die Begriffe komme ich gleich nochmal – Waffensysteme sind interessant für diese Diskussion, weil sie die letzten Segmente dieses Zyklus ohne menschliche Fernsteuerung, also ohne menschliche Kontrolle und manchmal sogar ohne menschliche Aufsicht, komplettieren (eng. “selecting and engaging targets without human intervention”). Das ist für mich der entscheidende Punkt. Man spricht also von Autonomie in Waffensystemen, wenn diese selbständig, aufgrund bestimmter Profile, Ziele auswählen und bekämpfen. Dieses Verständnis ist ein funktionales. Das ist die die einfachste und eleganteste Herangehensweise, die man an die Sache anlegen kann. Diese halte deswegen nicht nur ich für sinnvoll, sondern auch die USA, das Internationale Komitee vom Roten Kreuz (IKRK) und viele andere wichtige internationale Akteure und Forschende, die sich in der Thematik bewegen. Sie hat den Vorteil, dass sie einige Diskussionspunkte obsolet macht. Bei dieser Definition ist es zum Beispiel weitgehend irrelevant, wie genau das System funktioniert. Es kommt nur darauf an, wer oder was – Mensch oder Maschine – welche Funktion im targeting cycle übernimmt. Wann macht die Maschine etwas in diesem, und wann braucht sie den Menschen – oder besser: wann sollte sie den Menschen hinzuziehen. Ob dafür, dass die Maschine Ziele selbst auswählen und bekämpfen kann, das neuste Machine Learning implementiert wurde, das ist für diese Frage unerheblich. Egal ist auch, ob sie das am Ende „automatisch“ oder „autonom“ nennen. Darüber wurde jahrelang viel gestritten, zum Teil bis heute. Auch ich habe mir über eine mögliche Abgrenzung zwischen Automatik und Autonomie viele Gedanken gemacht. Aber nicht mal in den Ingenieursdisziplinen gibt es eine trennscharfe Abgrenzung. Und das Schöne an der funktionalen Sichtweise ist eben: Man braucht eine solche gar nicht. Und deswegen hänge ich mich an diesem Begriffspaar schon eine ganze Weile nicht mehr auf. Das lenkt nur ab von den wirklich wichtigen Fragen. Für die rechtlichen, politischen und ethischen Implikationen ist nur entscheidend, welche Funktion von wem, Mensch oder Maschine, durchgeführt wird – und genau darauf fokussiert die funktionale Sichtweise. Jolanda Rose: Ich hätte gedacht, dass es noch einen rechtlichen oder ethischen Aspekt hat, ob Machine Learning oder ein vom Menschen festgeschriebener Code eingesetzt wird. Also ob es von Anfang bis Ende noch Menschen durchdacht ist, nur dann eben maschinell ausgeführt wird, oder ob es ein selbstlernender Algorithmus ist, der sich weiterentwickelt. Ist dieser Unterschied nicht von großer Bedeutung für die rechtlichen und ethischen Bewertungen? Frank Sauer: Im Gegenteil. Wenn Sie die funktionale Definition anlegen, gibt es Autonomie in Waffensystemen schon seit 30 Jahren. Beispiele dafür sind das Patriot Raketenabwehrsystem oder auch die Phalanx Schnellfeuerkanone auf Marineschiffen. Diese Systeme, die zur Abwehr von anfliegenden Raketen oder anderer Munition dienen, sind grundsätzlich in einen Zustand versetzbar, in dem die Zielauswahl und Bekämpfung durch die Maschine erfolgt. Genau das ist der Zeitpunkt, der als der Knackpunkt für das Vorliegen von Autonomie oder Automatisierung betrachtet wird. In solchen teils 30 bis 40 Jahre alten Systemen wurde natürlich noch kein Machine Learning genutzt. Dennoch agieren diese Systeme nach dem oben geschilderten Verständnis „autonom“. Oder nehmen Sie die israelische „loitering munition“ Harpy. Das ist eine kleine Drohne, die wird in die Luft geschossen, dreht dort Kreise, sucht nach bestimmten Radarsignaturen und gleicht diese mit einer internen Datenbank ab. Wenn das Ziel verifiziert wurde, stürzt sie sich – man könnte auch von einer „Kamikazedrohne“ sprechen – mitsamt ihrem Sprengkopf auf das Ziel. Sowas passierte erst kürzlich im Bergkarabach-Krieg regelmäßig. Dafür braucht man kein Machine Learning. Das funktioniert ganz ohne computer vision, object recognition und so weiter – und es ist dennoch ein autonomes Waffensystem. Harpy ist sogar so autonom, dass der Nachfolger Harop weniger autonom gemacht wurde. Denn man hat festgestellt, dass Harpy aus kriegsvölkerrechtlicher Perspektive problematisch ist. Dadurch, dass das Ziel bekämpft wird, ohne sich nochmal bei einem Menschen zurück zu versichern, können alle möglichen nicht intendierten Konsequenzen entstehen. Harpy würde z.B. auch ein Krankenhaus angreifen, wenn dort ein Flugabwehrradar auf dem Dach steht. Denn das System kann nicht kontextualisieren, versteht also die Situation nicht. Es macht nur pattern recognition in einer sehr primitiven Art und Weise. Der Nachfolger Harop versichert sich deswegen, anders als Harpy zuvor, beim Menschen zurück. An dem Beispiel sieht man sehr gut, dass es keine ausgefuchste, hochentwickelte KI braucht, um Autonomie in Waffensystemen zu erreichen. Klar ist aber natürlich zugleich, dass in den letzten zehn Jahren – durch die ganzen Durchbrüche in der KI – diese Funktionalität aus der militärischen Nische herauskommt und von begrenzten Anwendungskontexten – also etwa Munitionsabwehr durch Phalanx, Unterdrückung der Flugabwehr im Falle von Harpy – in alle möglichen anderen militärischen Felder hineinwandert. Mit Hilfe von KI wird aktuell z.B. das System Atlas für Kampfpanzer von der US Army entwickelt. Dabei wird mit Hilfe von Machine Learning und Bilderkennung das gesamte Schlachtfeld permanent beobachtet und mögliche Ziele werden vom Algorithmus für den Bediener des Geschützturms markiert. Dieser sieht dann einen Ausschnitt des Gefechtsfelds und braucht dann nur noch darauf drücken, um die Kanone zu drehen und zu feuern. Jolanda Rose: Aber der Mensch wählt am Ende trotzdem aus? Die Maschine trifft nur eine Vorauswahl.

Frank Sauer: Richtig. Die Entscheidung ist salopp gesagt halb Mensch, halb Maschine. Über die Zielbekämpfung entscheidet der Mensch – aber auch das kann Probleme mit sich bringen. Eines davon ist automation bias. Die bedeutet, dass beim Menschen eine Gewöhnung an das System eintritt und der Knopf irgendwann einfach gewohnheitsmäßig immer gedrückt wird. Bei Patriot hatte man z.B. immer mal wieder das Problem, dass in diesen Automatikmodus Blue-on-Blue-Angriffe stattgefunden haben, also aus Versehen eigene Flugzeuge abgeschossen wurden. Die Menschen, die das System bedient haben, haben ihm zu sehr vertraut und waren manchmal auch einfach nicht gut genug ausgebildet. Das ist eines der Kernprobleme – und da sind wir noch gar nicht unbedingt an einem Punkt, wo wir flächendeckend volle Autonomie in zahlreichen Systemen haben und alle Entscheidungen an Maschinen delegiert werden. Trotzdem wurde der Mensch in der Vergangenheit bisweilen schon zu einer Art “Knopfdrückinstanz” degradiert. Deswegen ist eine der wesentlichen Forderungen, die sich in der Forderung nach “meaningful human control” über Waffensysteme niedergeschlagen hat, dass sichergestellt sein muss, dass differenziert und kontextabhängig der Mensch wirklich wirksam die Verfügungsgewalt über das mit autonomen Funktionen ausgestattete Waffensystem hat – inklusive der Verantwortungsübernahme bei Fehlern. Differenziert und kontextabhängig heißt in diesem Zusammenhang: Man kann, wenn ein Geschoss mit der Größe einer Colaflasche mit hoher Geschwindigkeit angeflogen kommt, sicher ausschließen, dass das ein Schulbus mit Kindern ist – und in solchen Fällen ist und bleibt das Delegieren der „kritischen Funktionen“, also das Auswählen und Bekämpfen des Ziels, an die Maschine problemlos möglich – auch möglich, sogar notwendig und wichtig. Aber in einem Kontext, in dem die Maschine dem Menschen nur noch eine gefilterte Sicht der Realität mit Ausschnitten aus dem Schlachtfeld präsentiert und Angriffsziele vorschlägt oder diese sogar, wenn der Mensch nicht interveniert, gleich selbst bekämpft, da muss der Mensch durch das Design des Systems in die Lage versetzt werden, sich auch noch selbst ein Bild der Lage machen zu können. Auch weil Menschen natürlich viele Dinge verstehen, die selbst die modernsten Bilderkennungsverfahren nicht sehen. Da kommen wir jetzt in die technische Diskussion. Ein gutes Beispiel sind die selbstfahrenden Autos. Trotz vieler positiver Entwicklungen und hoffnungsvoller Prognosen können diese immer noch sehr leicht überlistet werden, wenn zum Beispiel ein Stoppschild teilweise mit Klebeband beklebt ist. Jeder menschliche Autofahrer würde das Schild trotzdem erkennen und anhalten. Aber das genau das bei Maschinen nicht funktioniert, weil die automatische Bilderkennung durch die minimale Manipulation des Gesehenen aus dem Tritt kommt, ist symptomatisch für das aktuelle Paradigma des Machine Learnings. Da verweise ich stets an Gary Marcus, der gut beschrieben hat, dass wir bei Machine Learning nicht wissen, warum die Systeme die Ergebnisse produzieren, die sie produzieren, und dass sie dann scheitern, wenn sie mit irgendwelchen Situationen konfrontiert werden, auf die sie nicht in dem ihnen zu Grunde liegenden Datensatz hin optimiert wurden. Nicht zuletzt sind ML-Systeme zumindest bislang noch unglaublich datenhungrig. Man spricht hier von „greedy, brittle and opaque“. Diese dem ML-Paradigma inhärenten Probleme sind dann nicht mehr nur lästig, sondern brandgefährlich, wenn man sie in militärischen Kontexten einsetzt. Denn das „Mensch-Maschine-Team“ muss verstehen, auf was es schießt und z.B. erkennen können, ob da vielleicht unbeteiligte Zivilisten in der Nähe sind. Genau diesen Kontext begreift aber eben die Maschine alleine nicht. Deswegen muss in solchen Fällen, anders als beim Abwehren von Munition, dann eben der Mensch tiefer in der Entscheidungsschleife drin bleiben. Natürlich kann und soll man die bestehenden technischen Möglichkeiten nutzen. Aber was mich wirklich umtreibt in der ganzen Diskussion ist, dass auffällig viele von denen, die bei dem Thema unkritisch sind und sich all dieser vermeintlich neuen Waffenautonomie sozusagen an den Hals werfen, keinerlei Verständnis für die tatsächlichen Fähigkeiten und Limits der Technologie haben. Ich glaube aber, dass wir auf diese Weise am Ende mehr Gefahren als Nutzen erzeugen und mehr Risiken heraufbeschwören, als uns lieb ist. Also dann, wenn wir das blind einfach alles so weiterlaufen lassen und nicht klug regulieren.

Jolanda Rose: Welche völkerrechtlichen Vorgaben gibt es da? Hat sich die Regulierung da innerhalb der letzten Jahre weiterentwickelt? Frank Sauer: Also das Beispiel Harpy/Harop zeigt ja, dass die militärische Nutzungspraxis sich teilweise jetzt schon selbst reguliert– eben, weil es kriegsvölkerrechtliche Vorgaben gibt, wie man Waffengewalt zum Einsatz bringen darf und wie nicht. Es gibt zum Beispiel ein Diskriminierungsgebot, nach dem zwischen Kombattanten und Zivilisten unterschieden werden muss. Kombattanten dürfen bekämpft werden, außer sie sind z.B. verwundet oder wollen sich gerade ergebe – und Zivilisten nicht. Außerdem gilt das Proportionalitätsgebot. Der Mensch muss abwägen, wie viel Gewalt angemessen ist, um das militärische Ziel zu erreichen, dabei möglichst wenig Schaden unter der Zivilbevölkerung verursachend. Solche Dinge kann etwas wie Harpy eben nicht leisten. Klar ist natürlich trotzdem, dass es eine massive Entwicklung hin zu mehr Automatisierung gibt. Der Hauptgrund dafür ist, dass die maschinelle Beschleunigung des Entscheidungszyklus ein gigantischer militärischer Vorteil ist. Ein Panzer mit dem vorhin beschriebenen Atlassystem, das, wie gesagt, die Bekämpfung des Ziels noch dem Menschen überlässt, schießt schon dreimal schneller als ein Kampfpanzer, der auf herkömmliche Art und Weise funktioniert. Geschwindigkeit im targeting cycle ergibt im Endeffekt einen taktischen Vorteil von unschätzbarem Wert. Daher kommt die Jagd nach Automatisierung – oder Autonomie, wie man es eben nennen will. Aus historischer Sicht kann man feststellen, dass man sich über das Thema automatisierter militärischer Gewaltanwendung aber bisher eben kaum Gedanken machen musste. Denn über militärische Gewalt wurde auf den Schlachtfeldern eben bisher nahezu ausschließlich von Menschen entschieden. Als das Genfer Protokoll geschrieben wurde, hatte natürlich niemand Maschinen als Entscheidungsträger im Sinn. Wir sehen uns also – wenn die aktuelle Entwicklung weitergeht und Waffensystemautonomie flächendeckend Einzug hält – durchaus etwas historisch Neuem gegenüber, weil sich das Verhältnis des Menschen zu militärischer Gewaltanwendung fundamental zu wandeln beginnt. Und wenn es dann eben so ist, dass es deswegen eine regulative Leerstelle gibt, dann muss diese geschlossen werden. Jolanda Rose: Welche moralphilosophischen Überlegungen wurden dazu bisher angestellt? Gibt es da schon einen common sense? Frank Sauer: Zu der Frage, wie wir aus moralischer und letztlich auch rechtlicher Sicht mit der Sache umgehen sollen, gibt es viele sehr kluge Texte – unter anderem von Robert Sparrow oder Peter Asaro. Sie argumentierten schon sehr früh in der Forschungsdiskussion, dass es grundsätzlich falsch sei, Entscheidungen über Leben und Tod auf dem Schlachtfeld an Maschinen zu delegieren. Das bereits erwähnte IKRK – die internationale Instanz, die das Kriegsvölkerrecht hütet – hat diesen Punkt vielfach in seinen Schriften und Stellungnahmen unterstrichen. Nur der Mensch kommt als moralischer Akteur und Rechtssubjekt in Frage. Problematisch ist nämlich nicht zuletzt auch in einem engeren kriegsvölkerrechtlichen Sinne, dass unklar ist, wer wirklich zur Verantwortung zu ziehen wäre, wenn etwas schief geht – und das wird es natürlich, da darf man sich keinen Illusionen hingeben. Aber der bedeutendere Grund ist meiner Meinung nach nicht die Denkfigur der rechtlichen Zurechenbarkeit, sondern die der ethischen Verantwortung. Mit anderen Worten: Was mich sehr stark überzeugt, vielleicht auch als Deutscher, der ein großer Fan des Grundgesetzes und der Unantastbarkeit der Menschenwürde in Art. 1 Abs. 1 GG ist, ist die Diskrepanz dieser Haltung zu einem Menschenbild, das Menschen auf dem Schlachtfeld zu Objekten, zu Datenpunkten reduziert, die eine Maschine nur noch „abarbeitet“. Wenn man sich mit dem Sterben im Krieg gar nicht mehr beschäftigt, sondern alles an anonyme Algorithmen delegiert, was sagt das aus über die Gesellschaft, die das zulässt? Ich finde, daran ist etwas ganz grundsätzlich falsch. Es würde grundlegende humanitäre Werte verletzen. Und deshalb gibt es den akuten Bedarf, eine Rechtsordnung zu schaffen, die diese ethischen Überlegungen in bindenden Rechtsnormen fixiert. Es braucht also neues Völkerrecht, denn die Subsumtion unter den bestehenden Rechtskorpus reicht nicht aus, um mit den neuen Herausforderungen, die Waffensystemautonomie mit sich bringt, umzugehen. Andernfalls droht die Erosion der Grundpfeiler des Kriegsvölkerrechts – also Diskriminierungsgebot, Proportionalitätsgebot usw., ich hatte darauf ja verwiesen. Das hat jüngst auch das IKRK so gefordert. Und das ist außergewöhnlich, denn Rufen nach Änderungen oder Neuerungen begegnet das IKRK traditional mit Zögern und Argwohn. Bei Waffensystemautonomie empfiehlt nun aber das IKRK selbst der Staatengemeinschaft die Schaffung neuen Völkerrechts. Glücklicherweise gibt es in der Forschung viele interessante Anknüpfungspunkte mit Blick auf “meaningful human control” und wie man selbige im Design und der Nutzung von Waffensystemen mit Autonomie, auch in den kritischen Funktionen von Zielauswahl und -bekämpfung, sicherstellen kann. Die Ideen sind also da, und es gilt jetzt, sie in der internationalen Staatengemeinschaft auszudiskutieren und rechtlich zu fixieren. Man findet übrigens über die Jahrzehnte hinweg immer und in verschiedenen Rechtstexten die Idee, dass man die militärische Gewalt nicht vollends der menschlichen Kontrolle entglitten sehen will. Ich denke da etwa an Seeminen. Aktuell sind wir aber offenkundig an einem historischen Kristallisationspunkt, an dem man neues Völkerrecht schaffen müsste, das diese Norm, die so zwischen den Zeilen im Völkerrecht schon eine ganze Weile existierte, tatsächlich bindend ausformuliert. Jolanda Rose: Ihre persönliche Meinung ist also, dass die letzte Entscheidungsgewalt als moralische Instanz immer beim Menschen liegen sollte. Begrüßen Sie die Entwicklungen, dass man das so festlegen möchte? Frank Sauer: Wenn Menschenleben gefährdet sind, dann muss sich der Mensch mit der Entscheidung, potenziell jemand anderen zu töten, befassen, ja. Deswegen bin ich der Meinung, dass wir menschliche Kontrolle über Waffensysteme brauchen, aber eben differenziert und kontextabhängig. Wenn wir die Systeme zum Abschuss anfliegender Marschflugkörper, Raketen oder Artilleriegranaten nutzen, was es wie gesagt schon gibt und was sinnvoll und wichtig ist, dann habe ich damit natürlich kein Problem. Diese Systeme kann und muss man sogar dringend weiterentwickeln, etwa zur Abwehr von zukünftigen Hyperschallflugkörpern. Jolanda Rose: Das ist ja dann eher Verteidigung als ein aktiver Angriff? Frank Sauer: Ich drücke mich um das Begriffspaar. Angriff und Verteidigung zu unterscheiden ist leider nicht gar so einfach wie man auf den ersten Blick vielleicht denkt. Jolanda Rose: Aus Laiensicht dachte ich, dass es sich um Abwehr handelt, wenn etwas abgewehrt wird, was auf einen zufliegt. Frank Sauer: Das stimmt auch, aber mittlerweile denkt man in militärischen Kontexten in einer Systemverbundslogik. Dieselben Systeme, die Angriffe abwehren, können bisweilen auch Angriffe steuern. Und was ist überhaupt ein System, das (nur) zum Angriff dient? Es ist leider nicht so ganz einfach. Ich würde da vereinfachen und, wieder auf die funktionale Perspektive zurückkommend, fragen: Wer oder was – Mensch oder Maschine – schießt wann und wo auf was? Jolanda Rose: Bezogen auf die Funktionsweise von automatischen oder autonomen Waffensystemen, sagten sie, dass irgendwann der Punkt der Gewöhnung beim Bedienenden kommt. Sodass man diesen Knopf einfach drückt und sich daran gewöhnt, dass einfach geschossen wird. Wird dadurch die Hemmschwelle zu töten dadurch maßgeblich gesenkt? Wie sehen Sie die allgemeine Auswirkungen dieser Technologisierung auf die Situation der Menschheit? Werden z.B. weniger Kriegstote verzeichnet werden? Wie sollte demnach die Anwendung reguliert werden? Frank Sauer: Die bereits existierenden unbemannten Waffensysteme – damit meine ich jetzt explizit nicht solche mit Autonomie in den kritischen Funktionen – haben den politisch-militärischen Handlungsspielraum bereits erweitert. Man kann aus einer politisch-militärischen Sicht mit einem unbemannten Waffensystem nämlich Dinge tun, die man mit einem bemannten nicht in gleicher Weise tun kann und tun würde. Ich kann zum Beispiel in den Luftraum eines anderen Staates eindringen mit einem unbemannten Waffensystem, weil ich weiß, im schlimmsten Fall fällt es vom Himmel und das ist nicht so schlimm. Ganz anders ist die Situation, wenn die Maschine von einem Menschen geflogen wird, der dann abgeschossen wird und vielleicht in Kriegsgefangenschaft landet. Das ist zwischen Indien und Pakistan vor nicht allzu langer Zeit so passiert. Außerdem gibt es eine Veränderung der Kosteneffizienz. Diese unbemannten, sehr billigen Systeme machen auch durch ihren vergleichsweise niedrigen Preis Dinge möglich, die davor nicht umsetzbar waren. Da ist auch wieder der jüngste Bergkarabach-Konflikt ein gutes Beispiel, wo in großer Zahl gepanzerte Fahrzeuge von billigster Wegwerfmunition – den oben angesprochenen loitering munitions – vernichtet wurden. Das ist in dieser Form neu, weil man früher nur mit viel Aufwand gegen ein großes Waffensystem wie einen Kampfpanzer hat bestehen können. Aber den kleinen, schnellen Kamikazedrohnen fallen diese nun zum Opfer – und so verschiebt sich etwas in der Kalkulation zwischen den Konfliktparteien. Das zeigt, dass Technologie eben nicht „neutral“ ist. Sie verändert bestimmte Kalkulationen und Mensch-Maschine-Relationen - und deswegen braucht es neue Regeln, um Chancen zu nutzen und zugleich bestimmte negative Konsequenzen und Risiken abzuwenden. Was schließlich die Vorstellung betrifft, dass wir irgendwann unblutige Kriege haben und nur noch Maschinen gegeneinander kämpfen – also, das ist gelinde gesagt naiv. Die Konflikte bestehen ja zwischen uns Menschen. Und wir Menschen müssen uns dazu verhalten. Und auch die kommenden Waffen mit autonomen Funktionen werden wir einsetzen; und deshalb müssen wir uns diese Dinge, die wir hier besprochen haben, die militärischen Chancen, aber auch die politischen, rechtlichen und ethischen Risiken, bewusst machen. Es müssen einfach Regeln zur Anwendung dieser Technologie und darüber hinaus neue Konfliktlösungsmechanismen geschaffen werden. In Zukunft werden sich die Menschen immer noch effizienter mit diesen Waffen umbringen, und daran wird nichts unblutig sein. Deswegen müssen hier und heute gemeinsame Vorstellungen darüber entwickelt werden, welche kollektiven Risiken es zu verhindern gilt. Ich komme wie gesagt aus dem nuklearen Bereich. Wann hat man angefangen, nukleare Rüstungskontrolle zu machen zwischen den beiden Supermächten? Nach der Kuba-Krise, als beide mal wirklich dachten: das war's! Als Robert McNamara zum Höhepunkt der Krise ins Bett gegangen ist abends, da dachte er, er wacht nicht mehr auf, weil Washington über Nacht in die Luft gesprengt wird und vermutlich der Rest der Welt gleich mit. Allen Beteiligten – Kennedy und Chruschtschow insbesondere – musste einmal wirklich der Schreck so richtig in die Glieder fahren. Und dann hat man gemerkt, dass das kollektive, unregulierte Operieren in diesem Bereich in Summe inakzeptabel für alle, für die Menschheit als Ganzes, ist. An einem nicht unähnlichen Punkt sind wir beim Thema automatisierter Waffensysteme auch. Gerade durch die Geschwindigkeit der Systeme und ihre Fehleranfälligkeit müssen wir darauf achten, dass Menschen die Entscheidungskreisläufe zumindest noch unterbrechen können. Wenn das kein Mensch mehr leisten kann, weil die Systeme so schnell gemacht wurden, dass ihnen kein Mensch mehr zu folgen imstande ist, dann werden auch alle Eskalationsstufen eines Konflikts in Maschinengeschwindigkeit ablaufen. Das strategische Risiko, das damit einhergeht, ist immens. Warum sollten wir das zulassen? Deswegen muss man sich jetzt im Vorfeld darauf verständigen, wie wir diese Dinge zum Einsatz bringen wollen, also wie ein verantwortungsvoller militärischer Umgang mit diesen Technologien aussieht.

116 Ansichten0 Kommentare