04:06 19 Oktober 2018
SNA Radio
    US-Soldat schläft auf seinem Laptop während des Einsatzes in Afghanistan (Archivbild)

    Kunsthirn drückt Atomknopf: Neues Wettrüsten droht der Welt

    © AFP 2018 / Romeo Gacad
    Zeitungen
    Zum Kurzlink
    Expert
    91460

    Dass Atommächte über kurz oder lang die Entscheidung für oder gegen den Kernwaffeneinsatz einer Maschine werden überlassen müssen, ist zwar immer noch eine Horrorvorstellung, aber längst keine Fiktion mehr. Der Welt droht eine sehr gefährliche Entwicklung. Zu diesem Ergebnis kamen die Teilnehmer einer Sicherheitskonferenz in Peking.

    Der Einsatz einer „schwachen“ KI ist bei den Streitkräften heute schon üblich: Roboter und Automaten steuern Frühwarnsysteme oder schätzen die Gefahr eines Raketenschlags ein, was den Entscheidungsträgern Zeit verschafft, um die Lage zu bewerten und womöglich einen Gegenschlag zu befehlen.

    Die Gefahr ist, dass die Fähigkeit der einen Seite, immer schnellere Entscheidungen zu treffen, die Gegenseite unausweichlich dazu veranlasst, immer schnellere Reaktionsfähigkeiten zu entwickeln. Letztlich ist nicht auszuschließen, dass die Staaten die Entscheidungsfindung über einen Gegenschlag am Ende werden automatisieren müssen. 

    Darin waren sich die Experten einer Konferenz von CICIR (China Institutes of Contemporary International Relations) und SIPRI (Stockholm International Peace Research Institute) einig, die kürzlich in der chinesischen Hauptstadt stattfand.

    Dass ein Wettrüsten dieser Art den Weltfrieden massiv gefährdet, steht außer Frage. Die Übertragung der Entscheidungsgewalt auf künstliche Intelligenz hätte unberechenbare Folgen.

    Denn selbst Spezialisten für maschinelles Lernen durchschauen die Systeme niemals ganz, betonten Fachleute auf der Tagung. Das Problem, dass der Entscheidungs-Algorithmus selbst den Experten immer ein Stück weit ein Rätsel bleibt (Fachleute nennen das den Blackbox-Effekt), ist auch gegenwärtig immer noch ungelöst.

    Es gilt also die Transparenz der KI-Systeme zu steigern, bevor ihnen die Entscheidung über den Einsatz von tödlichen Waffen übertragen wird. Dass diese Forderung aber im Widerspruch zu dem steht, was das Militär ausmacht – nämlich die Geheimhaltung – ist naheliegend.

    Und dann sind da noch die Drohnen

    Auch im Brennpunkt der Sicherheitskonferenz: Tödliche Autonome Waffensysteme (Lethal Autonomous Weapon Systems, kurz LAWS). Einige Staaten, besonders USA und China, setzen sie bereits aktiv ein.

    Dabei sind solche Tötungsautomaten prinzipiell ein sehr großes Risiko für den Frieden. Auch unbewaffnet können Drohnen Konflikte auslösen, beispielsweise wenn sie außer Kontrolle geraten und fremde Staatsgrenzen verletzen.

    Erschwerend kommt hinzu, dass autonome Waffensysteme und Anlagen, die auf künstlicher Intelligenz basieren, sich rechtlich bislang in einer Grauzone befinden.

    Besonders beunruhigend fanden die Teilnehmer der Fachtagung in diesem Zusammenhang jene Unterwasser-Drohne, die der russische Präsident Wladimir Putin bei seiner Ansprache vor der Föderalversammlung im März 2018 erwähnte.

    Das „Poseidon“ genannte Gerät (auch bekannt als „Status-6“) werde bereits getestet, teilte das russische Verteidigungsministerium im Juli mit. Es sei im staatlichen Rüstungsprogramm 2027 eingeplant, dann soll es bei der russischen Marine in Dienst gestellt werden.

    Laut Medienberichten soll die U-Wasser-Drohne künftig mit einem nuklearen Gefechtskopf von bis zu zwei Megatonnen Sprengkraft bestückt werden. Nach Ansicht der Konferenzteilnehmer können nuklear bestückte Drohnen das strategische Gleichgewicht der Kräfte verschieben und ein neues Wettrüsten auslösen.

    Ein besonders heikler Punkt: Sollte das autonome Gerät einmal aufgrund eines Irrtums gestartet werden, wird dessen tödliche Mission nicht mehr abgebrochen werden können. Denn es lässt sich keine Verbindung zu der Drohne unter Wasser aufrechterhalten.

    Dass es nicht mehr realistisch ist, die militärische Nutzung autonomer Systeme und künstlicher Intelligenz aufzuhalten oder zu begrenzen, darüber waren sich die Fachleute insgesamt einig. Umso notwendiger ist es, eine rechtliche Grundlage für den Einsatz solcher Systeme zu schaffen.

    Und es ist dringend geboten, international zu verbieten, dass Entscheidungen über einen Kernwaffeneinsatz Automaten überlassen werden, so der Appell der Friedensforscher und Sicherheitsexperten. Sonst können die dadurch gewonnenen Minuten die Menschheit teuer zu stehen kommen.

    GemeinschaftsstandardsDiskussion
    via Facebook kommentierenvia Sputnik kommentieren
    Tags:
    autonom, Kriegsgefahr, Killer-Drohne, künstliche Intelligenz, Unterwasser-Drohne, Kampfdrohne, Drohnen, Militärtechnik, Poseidon, China, USA, Russland