banner
Heim / Nachricht / Wenn Militärs KI einführen, wird Hype zur Waffe
Nachricht

Wenn Militärs KI einführen, wird Hype zur Waffe

May 24, 2023May 24, 2023

Die Begeisterung für generative künstliche Intelligenz hat seit der Einführung von ChatGPT und Bild-Engines wie MidJourney im vergangenen Jahr ihren Höhepunkt erreicht. Doch sowohl Hochstimmung als auch Angst vor den gegenwärtigen Einsatzmöglichkeiten der neuen Technologie führen bald zu größeren, existenziellen Zukunftsprognosen. Mit Ausnahme der „Singularität“ und der direkten Ersetzung der Menschheit durch KI löst kein Ergebnis so viel Angst aus wie die Auswirkungen, die KI auf die Kriegsführung haben könnte. Könnten autonome Waffen- und Strategie-Bots Zivilisten unterdrücken, menschlichen Bedienern die Stirn bieten – oder sogar den Dritten Weltkrieg auslösen?

Die Staats- und Regierungschefs der Welt zeigen ihre Taten. Sechzig Staaten trafen sich diesen Februar, um Ziele für den „verantwortungsvollen Einsatz von KI“ durch das Militär auszuarbeiten. Das Außenministerium folgte mit einer politischen Erklärung zu den Grundsätzen der Vereinigten Staaten, zu denen es gehört, dass hochrangige Offiziere weiterhin an der Konstruktion und dem Betrieb aller autonomen Waffen beteiligt bleiben, sie für „eindeutige, klar definierte Verwendungszwecke“ entwerfen und alle Sicherheitsmerkmale sorgfältig überwachen während der gesamten Lebensdauer der Waffen und um Voreingenommenheit bei deren Verwendung zu vermeiden. Human Rights Watch stellte jedoch fest, dass keines dieser Ziele bisher rechtsverbindlich ist oder die Entwicklung hochentwickelter Systeme verlangsamt, die ihre Betreiber nicht vollständig verstehen.

Obwohl sie neu sind, handelt es sich bei diesen jüngsten Fortschritten lediglich um die jüngsten Schritte in der Automatisierung staatlicher Gewalt, die mit der Bildung stehender Streitkräfte in Europa im 18. Jahrhundert ihren ersten großen Sprung machte. Obwohl das Maschinengewehr, der Panzer und der Kampfjet bekanntere Symbole dieses Prozesses sind, verschaffte die Ausbildung der Infanterie, um individuelle menschliche Emotionen zu beseitigen und ihre Geschwindigkeit und Zuverlässigkeit für Kommandeure zu erhöhen, diesen Armeen ihren ersten großen Vorteil gegenüber unvorbereiteten Rivalen.

Holen Sie sich jeden Donnerstag die besten Geschichten von JSTOR Daily in Ihren Posteingang.

Datenschutzrichtlinie Kontaktieren Sie unsSie können sich jederzeit abmelden, indem Sie auf den bereitgestellten Link in jeder Marketingnachricht klicken.

D

Seitdem befürchten die Staaten, bei Automatisierungsvorteilen in Rückstand zu geraten, weshalb es in den Nachrichtenmedien einen parallelen Diskurs gibt, der die USA dazu anspornt, militärische KI schneller einzuführen. Atemberaubende Berichte über die Art und Weise, wie generative KI die Analyse von Daten auf geheimer Ebene weitaus effizienter macht, gehen einher mit eindringlichen Warnungen, dass jegliche Beschränkungen dem chinesischen Militär einen Vorteil verschaffen würden. Die New York Times stellt KI-Militärauftragnehmern kostenlosen Kommentarbereich zur Verfügung. Sogar Ausrutscher, die zufällig erscheinen, wie der Oberst, der behauptete, dass eine KI-Drohne ihren Bediener in einer virtuellen Übung getötet habe, um ihr Ziel zu erreichen, oder der General, der sagte, das US-Militär gehe aufgrund seiner „jüdisch-christlichen Werte“ mit KI-Waffen ethischer um „(d. h. im Gegensatz zu China) verstärken alle die Botschaft an die Welt, dass die militärische KI-Entwicklung mit Volldampf voranschreitet.

Die Anwendungen von KI, insbesondere in der Geheimdienstanalyse, sind noch sehr hypothetisch. Derzeit scheint der Hype selbst eine Waffe zu sein, um Anwärter auf geopolitische Vorherrschaft abzuschrecken. Aber würden Militärkommandanten wirklich so weit gehen und versuchen, die Entscheidungsfindung während des Krieges selbst zu automatisieren?

Es macht Sinn, dass echte Militäroffiziere oft mehr Vorsicht fordern als Auftragnehmer der Kriegsindustrie und Medien, die an Denkfabriken angeschlossen sind. Drei US-Offiziere kommen in einem Artikel in PRISM aus dem Jahr 2018 direkt auf den Punkt und schlagen vor, dass chinesische und amerikanische automatisierte Strategiesysteme, die im Jahr 2024 in Betrieb sind, einen Konflikt in nur zwei Stunden zu einem „begrenzten nuklearen Schlagabtausch“ eskalieren könnten.

In ihrem Szenario beginnt die Krise mit einer versehentlichen Kollision zwischen einem vietnamesischen Fischereifahrzeug und einem chinesischen Schiff im Südchinesischen Meer. Dieses Ereignis löst eine Reihe scheinbar unabhängiger Kettenreaktionen im Cyberspace aus, darunter der Rückgang der Börsenindizes und die Zunahme negativer Kommentare über beide Seiten in den sozialen Medien. Diese Hinweise lösen auf beiden Seiten KI-Warnsysteme vor Internetangriffen auf die IT-Infrastruktur aus und lösen in der Folge tatsächliche militärische Aktionen aus. Obwohl in ihrem Szenario China als Erster zuschlägt, machen die Autoren das Zusammenspiel beider Seiten für die mögliche Ermordung von Millionen Menschen verantwortlich.

Dieses Szenario verdeutlicht die frustrierenden Unbekannten in der neuesten Generation der KI. Im Vordergrund steht die Natur der neuronalen Netze, die die Technologie vorantreiben. Im Wesentlichen „bringt“ generative KI sich selbst das Schreiben, Malen, Spielen von Videospielen usw. bei, indem sie ihre Aufgabe millionenfach wiederholt und Erfolgsraten oder Wahrscheinlichkeitsergebnisse zuweist und so ihre Ausgabe sorgfältig verfeinert, um ein Ergebnis zu erzielen, das ihre Programmierer für optimal halten. Aber es ist von Natur aus nicht in der Lage, eine vollständige Darstellung des „Entscheidungsfindungsprozesses“ zu liefern, der zu diesem Ergebnis geführt hat – weil die algorithmische Maschinerie tatsächlich keine Entscheidungen getroffen hat.

Darüber hinaus sind KI-Systeme nur so leistungsfähig wie die Daten, mit denen sie verknüpft sind, was die Bedenken hinsichtlich der Zuverlässigkeit und Ethik der Massendatenerfassung, die heute in allen Lebensbereichen stattfindet, noch verstärkt. Am wichtigsten ist, dass die KI den menschlichen Benutzern die Datenanalyse immer schneller vor Augen führt und so das Zeitfenster verkürzt, das Menschen benötigen, um eine fundierte Entscheidung zu treffen, selbst wenn sie die „Kontrolle“ haben.

Die negativen Auswirkungen dieser kumulativen Mängel in der KI sind schon seit einiger Zeit in anderen Anwendungen offensichtlich, obwohl unsere Gesellschaft Schritte unternommen hat, um sie zu normalisieren. Wertpapierhandelsalgorithmen haben „Flash-Crashs“ verursacht, indem sie schlechte Daten und schlechte Annahmen der Betreiber verstärkten. Menschliche Fahrer gehorchen blind ihren KI-Kartenassistenten, was täglich zu Unfällen führt – und die Technologie für vollständig autonome Fahrzeuge scheint ernsthaft ins Stocken geraten zu sein. Gesichtserkennungssoftware in der öffentlichen Sicherheit verbreitet sich trotz schwerwiegender Vorurteile weiter.

Das Problem dieser Technologie besteht laut den Autoren darin, dass „strategische KI-Systeme die Reibung des Krieges verringern und gleichzeitig den Nebel vergrößern können“. Letztendlich werden die Fähigkeiten der KI nicht so wichtig sein wie die Art und Weise, wie Menschen mit ihr interagieren – wird sie bei ihren Bedienern blindes Vertrauen oder gesunde Skepsis hervorrufen?

Wenn der aktuelle Hype um militärische KI zum Teil dazu gedacht ist, eine Botschaft an die geopolitischen Rivalen der Vereinigten Staaten zu senden, sollte es aufschlussreich sein, die Aktivitäten und Ansprüche dieser Rivalen zu analysieren. Im Jahr 2019 fasste Elena Kania die verfügbaren Informationen über Chinas Militärstrategie für KI zusammen und stellte fest, dass es auch hier nicht an Hype mangelte.

Die Volksbefreiungsarmee versucht, KI in alle Bereiche ihrer Operationen zu integrieren, als Teil einer umfassenderen Strategie der sogenannten „Intelligentisierung“. Darin wird die Schaffung eines „Systems von Systemen gefordert, das nicht nur aus intelligenten Waffen besteht, sondern ... auch die Integration von Mensch und Maschine mit (künstlicher) Intelligenz in einer ‚führenden‘ oder beherrschenden Position beinhaltet.“

Die Ziele der PLA spiegeln die Befürchtungen der Erklärung des Außenministeriums vom Februar wider: Techniken des maschinellen Lernens, die mit „begrenzter Rechenleistung“ funktionieren können, KI für politische Arbeit und psychologische Operationen, erhöhte Autonomie „unbemannter“ Systeme und Datenmanipulation gegen KI. Kania führt eine beeindruckende Liste strategischer Initiativen in der Armee, der Marine und der Luftwaffe sowie Milliarden von Dollar an, die in private und militärisch-private „Fusions“-Industrieprojekte investiert wurden. Und doch waren die tatsächlich im Einsatz befindlichen Waffen (im Jahr 2019) nichts weiter als ferngesteuerte Drohnenflugzeuge, Boote und Roboter.

Kanias Analyse der KI-„Schwächen“ Chinas ist aussagekräftiger, da sie auf die Schwierigkeiten anwendbar ist, mit denen jedes große militärische Establishment – ​​insbesondere die Vereinigten Staaten – konfrontiert ist. Bestehende bürokratische Strukturen, deren Ersatz droht, werden die Einführung radikal neuer Technologien durch die PLA behindern. Die PLA steht vor der Herausforderung, talentierte Informatiker zu rekrutieren oder auszubilden. Bei der Integration vieler verschiedener Arten militärischer Daten in Cloud Computing für die KI-Nutzung sind kaum Fortschritte erzielt worden. Wenn so viel Kapital auf einmal in die industrielle Entwicklung gesteckt wird, führt das zu Verschwendung und Korruption.

Während Kania für den aggressiven demokratischen Think Tank Center for a New American Security schreibt, schließt sie ihren Bericht mit politischen Punkten ab, die der in ihrem Bericht beschriebenen Bedrohung begegnen sollen: Reinvestitionen in die amerikanische MINT-Ausbildung und eine stärkere sicherheitsstaatliche Überwachung industrieller Verbindungen mit chinesischen Unternehmen . Insbesondere wägt sie die Möglichkeit einer KI-gestützten, gegenseitig gesicherten Zerstörung nicht ab. Dies wirft eine letzte Unwägbarkeit auf. Was ist gefährlicher für die Zukunft der Menschheit: eine militärische KI, die mit nahtloser Effizienz arbeitet, oder eine, die voller Fehler ist und von einem verärgerten Offizierskorps eingesetzt wird?

Unterstützen Sie JSTOR Daily! Treten Sie noch heute unserem neuen Mitgliedschaftsprogramm auf Patreon bei.

JSTOR ist eine digitale Bibliothek für Wissenschaftler, Forscher und Studenten. JSTOR Daily-Leser können auf JSTOR kostenlos auf die Originalforschung hinter unseren Artikeln zugreifen.

Holen Sie sich jeden Donnerstag die besten Geschichten von JSTOR Daily in Ihren Posteingang.

Datenschutzrichtlinie Kontaktieren Sie unsSie können sich jederzeit abmelden, indem Sie auf den bereitgestellten Link in jeder Marketingnachricht klicken.

D