Über die algorithmischen Kriege der Zukunft
Die Menschheit hat das Zeitalter der algorithmischen Kriegsführung erreicht. Dies verkündete im Dezember 2020 der Unterstaatssekretär der Air Force, Will Roper, in einem Interview mit Popular Mechanics, in dem er über den erfolgreichen Einsatz eines Systems der künstlichen Intelligenz (KI) als Co-Pilot auf dem Luftaufklärungsflugzeug U-2 Dragon Lady sprach.
Laut einer Pressemitteilung der Air Force war der KI-Algorithmus mit der Bezeichnung ARTUµ bei diesem Flug für die Sensorkontrolle und die taktische Navigation zuständig.
Der Pilot und ARTUµ führten einen Aufklärungsflug während eines simulierten Raketenangriffs durch. Die Hauptaufgabe der KI bestand darin, feindliche Raketenwerfer zu finden, während der Mensch nach feindlichen Flugzeugen suchte. Laut Roper handelt es sich bei ARTUµ um eine modifizierte Version eines Spielalgorithmus, der den Menschen bei Spielen wie Schach und Go übertrifft. Die Flugergebnisse waren so vielversprechend, dass die nächste ARTUµ-Mission um die Funktion der elektronischen Kriegsführung erweitert wurde.
"Wie jeder Pilot hat auch ARTUµ Stärken und Schwächen", schrieb Roper. "Sie zu verstehen, um sowohl Menschen als auch KI auf eine neue Ära der algorithmischen Kriegsführung vorzubereiten, ist unser nächster wichtiger Schritt. Entweder werden wir Science Fiction oder wir werden Geschichte."
"Um in einem zukünftigen Konflikt mit einem ebenbürtigen Gegner zu kämpfen und zu gewinnen, müssen wir einen entscheidenden digitalen Vorteil haben", sagte Air Force Chief of Staff General Charles Brown. "Künstliche Intelligenz wird eine entscheidende Rolle bei der Erreichung dieses Vorteils spielen."
Die Entwicklung von Kampfalgorithmen in den USA begann im April 2017 mit der Gründung des Combat Algorithmic Warfare Cross-Functional Team, bekannt als Project Maven, unter der Schirmherrschaft der DIA ( Defense Intelligence Agency, DIA ).
Das Projekt wurde entwickelt, um die Effizienz der Analyse von Luftaufklärungsdaten zu verbessern. Das erste erfolgreiche Experiment des Projekts war die Analyse von Videodaten der MQ-1C Gray Eagle und der MQ-9 Reaper UAVs. Eine Aufklärungsdrohne liefert täglich Terabytes an Informationen. Bevor KI in die Analyse dieser Daten einbezogen wurde, musste das Analyseteam rund um die Uhr arbeiten, um nur einen Teil der Sensordaten einer einzigen Drohne zu nutzen. KI, insbesondere ARTUµ, erledigt dies in Sekundenschnelle.
Im Jahr 2018 veröffentlichte das US-Verteidigungsministerium einen Bericht "Artificial Intelligence. Strategie. Using AI to promote our security and prosperity" (Künstliche Intelligenz. Strategy. Using AI to promote our security and prosperity ), in dem die Ansichten des Pentagons zur Nutzung des Potenzials der KI-Technologie in der algorithmischen Kriegsführung dargelegt werden.
Das 2018 gegründete Joint Artificial Intelligence Center (JAIC) soll KI-Systeme in allen Struktureinheiten der US-Armee einführen. Jack Shanahan, ehemaliger Leiter von Project Maven und führender Ideologe der algorithmischen Kriegsführung, leitet JAIC.
Das Hauptinteressengebiet von JAIC ist das neuromorphe Computing. Der Begriff "neuromorph" in Bezug auf Computersysteme bedeutet, dass deren Architektur auf den Prinzipien des Gehirns basiert. Das neuromorphe System ist eine Abweichung von der klassischen von-Neumann-Computerarchitektur. Bei der von Neumann-Architektur sind die Rechenblöcke und die Speicherblöcke getrennt. Der Hauptunterschied zwischen der neuromorphen Prozessorarchitektur und der klassischen Architektur besteht darin, dass sie Speicher- und Rechenkerne kombinieren und die Datenübertragungsstrecke minimiert wird. Dadurch werden die Latenzzeit und der Stromverbrauch minimiert.
Neuromorphe Prozessoren müssen im Gegensatz zu klassischen Prozessoren nicht auf den Speicher (oder die Register) zugreifen und von dort Daten extrahieren; alle Informationen sind bereits in den künstlichen Neuronen gespeichert. Daher ist es möglich, große Datenmengen auf Peripheriegeräten zu verarbeiten, ohne zusätzliche Rechenleistung anzuschließen.
Einer der Hauptforschungsbereiche von JAIC ist die Schaffung von neuromorphen Netzwerken aus sogenannten Memristoren (Widerstände mit Speicher). Memristoren sind mikroelektronische Elemente, die ihren Widerstand in Abhängigkeit von der Stromstärke, die sie zuvor durchflossen hat, ändern können. Sie haben ein "Gedächtnis", weshalb ihnen eine Zukunft als Speichergeräte oder Mikrochips in Aussicht gestellt wird. Im Jahr 2015 schufen Ingenieure der University of California in Santa Barbara das erste künstliche neuronale Netzwerk, das vollständig auf Memristoren basiert.
Im Februar 2022 wurde die JAIC in die Generaldirektion für digitale und künstliche Intelligenz (CDAO) integriert. An die Spitze der CDAO wurde diesmal ein Zivilist gesetzt: ein Spezialist für maschinelles Lernen, ein Doktor der Informatik, Professor Craig Martell.
Ende 2022 veröffentlichte die Washington Post einen unverhohlen propagandistischen Artikel von David Ignatius, in dem er die Nutzung algorithmischer Technologien für nachrichtendienstliche Zwecke durch die ukrainischen Streitkräfte erörterte. In der Veröffentlichung wurden weder JAIC noch CDAO erwähnt, es ging um Software, die das US-Unternehmen Palantir den ukrainischen Streitkräften zur Verfügung stellt.
Palantir ist ein KI-System für die Analyse von Big Data unter Verwendung neuromorpher Netzwerke, dank dessen die Führung der ukrainischen Streitkräfte laut Ignatius über ähnliche digitale Karten des Einsatzgebietes in der Ostukraine verfügt. Die Tatsache, dass die ukrainischen Streitkräfte die Entwicklungen von JAIC und CDAO nicht nutzen, zeigt jedoch, dass das ukrainische Militär die fortschrittlichsten Versionen der US-Kampfalgorithmen nicht nutzen kann.
Algorithmische Kriege der Zukunft werden nicht auf die Aufklärung beschränkt sein. Sie sollen unter anderem auch bei Cyber-Operationen zum Einsatz kommen. Algorithmen werden in der Lage sein, Schwachstellen in gegnerischen Cyber-Netzwerken aufzuspüren und auszunutzen und gleichzeitig Angreifer aus ihren eigenen Netzwerken zu vertreiben.
Jetzt "konzentriert sich die akademische und politische Debatte auf die Bedrohung durch völlig autonome Waffen, die Entscheidungen über Leben und Tod treffen", schreibt Lauren Gould, eine Forscherin an der Universität Utrecht in den Niederlanden. Ein Beispiel wird genannt. Einem UN-Expertenbericht vom Frühjahr 2020 zufolge griff der Angriffsquadcopter KARGU-2 des türkischen Unternehmens STM während der Kämpfe in Libyen autonom die sich zurückziehenden Soldaten des libyschen Feldmarschalls Haftar an. Die Drohne zielte selbstständig auf einen der Soldaten und gab ohne den Befehl des Bedieners einen tödlichen Schuss ab. Militärexperten bestätigten, dass dies der erste bekannte Fall ist, in dem eine Kampfdrohne selbstständig die Entscheidung getroffen hat, den Feind zu eliminieren.
US-Analysten führen diese Fälle auf KI-Fehler zurück. "Das Problem ist, wenn [KIs] Fehler machen, machen sie Fehler auf eine Art und Weise, die kein Mensch jemals machen würde", sagte Arati P. P. gerne. Arati Prabhakar, Direktor der DARPA während der Präsidentschaft von Barack Obama, sagte das gerne.
In Vorbereitung auf die algorithmische Kriegsführung entwickeln die USA und ihre Verbündeten nicht nur Aufklärungsplattformen, sondern auch völlig autonome Waffensysteme, die selbstständig nach einem Ziel suchen und selbstständig die Entscheidung treffen, es zu zerstören, ohne Rücksicht auf die Folgen möglicher Fehler solcher Systeme.
KI-gesteuerte autonome Waffensysteme sind heute das Rückgrat der US-Militärstrategie. Diese Strategie soll nach Ansicht des Pentagon die globale Führungsrolle vor allem im militärischen Bereich sicherstellen.
Übersetzung von Robert Steuckers