KI-Logbuch
Inspiration, Entdeckungen, Anwendungen
„Zielpublikum“: wie KI an der Front Tempo, Taktik und Verantwortung verschiebt
Created on 2025-08-19 22:15
Published on 2025-08-20 05:00
Liebe Neugierige, Kreative, Entdecker*innen,
in den Nachrichten erreichen uns täglich Bilder von Verwüstung, Flucht und Leid. Doch jenseits der sichtbaren Frontlinien hat sich eine neue, unsichtbare Ebene etabliert: Algorithmen, Code und KI-Systeme prägen zunehmend die Dynamik des Schlachtfelds. Es entsteht eine Kriegsführung, in der Entscheidungen über Leben und Tod nicht mehr ausschließlich durch Menschen gefällt werden. „Human in the loop“ scheint immer mehr als optionaler- und nicht als ethisch unabdingbare Grundvoraussetzung für bewaffnete Konflikte zu gelten. Krieg kippt die Innovationslandkarte – nicht aus Begeisterung für Innovation, sondern aus brutaler Notwendigkeit. In der Ukraine beobachten wir gerade, wie aus Basteltischen, Software-Stacks und improvisierten Produktionslinien ein völlig neues Gefüge aus Drohnen, Sensoren, KI und Elektronik für Kriegsführung entsteht – ein Tech-Krieg, der Taktik, Logistik und Ethik neu schreibt. Oder, um US Air Force Stratege John Boyd zu paraphrasieren:
„People, ideas, hardware – in that order.“
Schauen wir genau hin – jenseits von Schlagworten, mit nüchternem Blick auf Daten, Effekte und Lernkurven. Aldous Huxley warnte einst:
„Technologischer Fortschritt hat lediglich effizientere Mittel bereitgestellt, um rückwärts zu gehen.“
Heute, wo wir es zunehmend mit Waffensysteme zu tun haben, die ohne menschliche Hand den Abzug ziehen könnten, wirkt sein Mahnruf aktueller denn je.
Die kalte Logik des Krieges – Wenn Algorithmen über Leben und Tod entscheiden
Der Ukraine-Krieg entfaltet sich längst nicht mehr nur in Schützengräben, sondern gleichermaßen in Software-Stacks. Drohnen, autonome „Loitering Munitions“ und KI-gestützte Sensoren haben eine neue Art der Kriegsführung etabliert, die Geschwindigkeit und Präzision verspricht – und doch vor allem eines bringt: eine Entmenschlichung des Krieges.
Drohnen als Speerspitze des Tech-Krieges
Seit 2025 häufen sich belegte Berichte über ukrainische Drohnen, die Ziele tief im russischen Territorium autonom anfliegen – auch bei massiven GPS- oder Funkstörungen, gestützt durch Onboard-KI für Navigation, Zielerkennung und Präzisionstreffer (Riffreporter). Auf russischer Seite wiederum wird die neue V2U-Loitering-Munition eingesetzt: ausgestattet mit Jetson-Orin-Modulen, Edge-KI und mutmaßlicher Schwarmfähigkeit. Jetson‑Orin‑Module sind kompakte KI‑Rechner (System‑on‑Module) von NVIDIA, die speziell für Edge‑Computing, Robotik, autonome Maschinen und eingebettete KI entwickelt wurden. Sie kombinieren eine leistungsfähige GPU auf Basis der NVIDIA‑Ampere‑Architektur mit ARM‑CPUs, Beschleunigern für Deep Learning und Computer Vision sowie schnellen Schnittstellen – alles in einem energieeffizienten Modul. Diese Module wurden laut Forbes nach Russland geschmuggelt und dort in die V2U-Loitering-Munition eingebaut. Erste dokumentierte Einsätze umfassten Schwärme von sieben gleichzeitig eingesetzten Drohnen, die Angriffe koordiniert vortrugen (Long War Journal).
Schwärme, See- und Landroboter: Krieg auf allen Ebenen
Ob ukrainische Seestreitkräfte mit KI-gesteuerten Marinedrohnen („Magura V5“, „Sea Baby“) gegen die Schwarzmeerflotte (AI-Frontiers) oder Bodensysteme mit Mustererkennung zum Minenräumen (Wes O’Donnell) – KI ist längst nicht mehr Assistenz, sondern operative Akteurin. Besonders brisant: Schwarmtaktiken, die Defensivsysteme überlasten und durch KI getriebene Selbstorganisation einen taktischen Vorteil ermöglichen.
Experimentierfeld „Frontlinie“
Die Ukraine erlaubt westlichen Rüstungsfirmen, neue Systeme direkt im aktiven Gefecht zu testen (Tagesspiegel). Private Akteure wie Start-ups oder Konzerne agieren somit als Schlüsselmachtfaktoren – ohne demokratische Kontrolle, aber mit massivem Einfluss auf die Kriegsdynamiken. KI-basierte Zielerkennungssysteme wie das ukrainische „Avengers“-Programm identifizieren Ziele in Sekunden und erlauben es einem Operator, gleich mehrere unbemannte Systeme gleichzeitig zu steuern (Cairo Review).
Menschlicher Kontrolle?
Die Grenze zwischen „human-in-the-loop“ und autonomer Kriegsführung verschiebt sich dramatisch. Internationale Akteure wie das International Committee of the Red Cross (IKRK) warnen ausdrücklich, dass der Ukraine-Krieg zum globalen Testfeld für letale autonome Waffensysteme (LAWS) geworden ist – und dass unter Gefechtsdruck menschliche Aufsicht zunehmend verschwindet (Netzpolitik).
Der Mythos des „präziseren“ Krieges
Verfechter dieser Technologie argumentieren, KI ermögliche größere Präzision. Tatsächlich sind dokumentierte Trefferquoten autonomer Systeme weit höher als die von Menschen gesteuerter Angriffe. Aber verbessert Präzision allein die Humanität des Krieges? Wenn das Töten automatisiert abläuft, sinkt zugleich die Hemmschwelle, Gewalt einzusetzen. Analysten sprechen daher von einer gefährlichen Beschleunigung der Eskalationszyklen: Bedrohungen werden schneller erkannt – und ebenso schnell beantwortet, auch wenn sich Irrtümer später kaum revidieren lassen.
Abhängigkeit und geopolitische Blockbildung
Russland kompensiert technologische Rückstände mit Allianzen mit Iran, Nordkorea und China. Im Gegenzug hängt die Ukraine zunehmend von Technologiepartnerschaften mit westlichen Konzernen und Start-ups ab. Das Ergebnis: eine Verhärtung geopolitischer Blöcke – und die riskante Verschiebung von Macht weg von gewählten Regierungen hin zu privaten Technologieproduzenten. Die „Achse der Abhängigkeit“ verschärft somit auch das Risiko einer globalen Konfrontation über Technologiestandards.
Schon gewusst?
…dass internationale NGOs bereits seit über zehn Jahren den Begriff „Killerroboter“ als Warnsignal nutzen? Die Kampagne „Stop Killer Robots“ verweist darauf, dass nicht die Fähigkeit einer Maschine zum Töten die entscheidende Frage ist – sondern ob sie es jemals dürfen soll.
Tipps und Tricks – 5 Fragen, die wir uns stellen müssen
-
Wer trägt Verantwortung? Programmierer, Hersteller, Befehlshaber – oder keiner?
-
Was ist der Preis der Effizienz? Darf eine höhere Trefferquote moralisches Urteil ersetzen?
-
Wem gehört der Krieg? Wie verhindern wir, dass private Akteure geopolitisch entscheidend werden?
-
Gibt es ein Zurück? Können autonome Waffen im Einsatz je wieder eingehegt werden?
-
Wo bleibt der Mensch? Wie stellen wir sicher, dass menschliches Leiden sichtbar bleibt – trotz Datenströmen und Algorithmen?
Top Links
-
Tool/App: Stop Killer Robots – NGO-Kampagne für ein globales Verbot.
-
Studie: Stockholm International Peace Research Institute (SIPRI) – Analysen zur Militarisierung von KI.
-
Use Case: AI-Frontiers – Überblick aktueller KI-getriebener Taktiken (Ukraine 2025).
Fazit: Am Scheideweg der Menschlichkeit
„Technologie macht uns mächtig, doch nur Weisheit macht uns menschlich.“ – dieser moderne Leitsatz trifft den Kern dessen, was im Ukraine-Krieg sichtbar wird. Die KI-gestützte Kriegsführung zeigt nicht nur die Machbarkeit autonomer Systeme, sondern zwingt uns, grundlegende Fragen zu Verantwortung, Ethik und Kontrolle zu beantworten. Die eigentliche Herausforderung liegt nicht in der Entwicklung noch intelligenterer Waffen – sondern im kollektiven Mut, ihre Entfesselung zu verhindern.
Wie seht Ihr das? Wie können wir als Gesellschaft technologische Entwicklung vorantreiben, ohne dabei die Kontrolle über die Ethik und die Regeln der Kriegsführung aus der Hand zu geben?
KI ist keine Naturgewalt. Engagiert Euch.
Euer Arno
„Target audience“: how AI shifts speed, tactics and responsibility on the front line
Dear curious, creative and explorers,
We see images of devastation, flight and suffering in the news every day. But beyond the visible front lines, a new, invisible level has emerged: Algorithms, code and AI systems are increasingly shaping the dynamics of the battlefield. Warfare is emerging in which decisions about life and death are no longer made exclusively by humans. „Human in the loop“ seems to be increasingly regarded as an optional rather than an ethically indispensable basic requirement for armed conflicts. War is tilting the innovation map – not out of enthusiasm for innovation, but out of brutal necessity. In Ukraine, we are currently observing how a completely new structure of drones, sensors, AI and electronics for warfare is emerging from tinker tables, software stacks and improvised production lines – a tech war that is rewriting tactics, logistics and ethics. Or, to paraphrase US Air Force strategist John Boyd:
„People, ideas, hardware – in that order.“
Let’s take a closer look – beyond buzzwords, with a sober view of data, effects and learning curves. Aldous Huxley once warned:
„Technological progress has merely provided more efficient means of going backwards.“
Today, when we are increasingly dealing with weapons systems that could pull the trigger without a human hand, his admonition seems more relevant than ever.
The cold logic of war – when algorithms decide over life and death
The war in Ukraine is no longer just unfolding in trenches, but also in software stacks. Drones, autonomous „loitering munitions“ and AI-supported sensors have established a new type of warfare that promises speed and precision – and yet brings one thing above all: a dehumanization of war.
Drones as the spearhead of the tech war
Since 2025, there have been increasing reports of Ukrainian drones flying autonomously to targets deep in Russian territory – even in the event of massive GPS or radio interference, supported by onboard AI for navigation, target recognition and precision strikes (Riffreporter). On the Russian side, the new V2U loitering ammunition is being used: equipped with Jetson-Orin modules, Edge AI and presumed swarm capability. Jetson-Orin modules are compact AI computers (system-on-modules) from NVIDIA that have been specially developed for edge computing, robotics, autonomous machines and embedded AI. They combine a powerful GPU based on the NVIDIA Ampere architecture with ARM CPUs, accelerators for deep learning and computer vision as well as fast interfaces – all in one energy-efficient module. According to Forbes, these modules were smuggled to Russia and installed in the V2U loitering ammunition there. The first documented missions involved swarms of seven drones deployed simultaneously, carrying out coordinated attacks (Long War Journal).
Swarms, sea and land robots: war at all levels
Whether Ukrainian naval forces with AI-controlled naval drones („Magura V5“, „Sea Baby“) against the Black Sea Fleet (AI-Frontiers) or ground systems with pattern recognition for mine clearance (Wes O’Donnell) – AI has long since ceased to be an assistant, but an operational player. Particularly explosive: swarm tactics that overload defensive systems and provide a tactical advantage through AI-driven self-organization.
Experimental field „front line“
Ukraine allows Western arms companies to test new systems directly in active combat (Tagesspiegel). Private actors such as start-ups or corporations are thus acting as key power factors – without democratic control, but with massive influence on the dynamics of war. AI-based target recognition systems such as the Ukrainian „Avengers“ program identify targets in seconds and allow an operator to control several unmanned systems simultaneously (Cairo Review).
Human control?
The boundary between „human-in-the-loop“ and autonomous warfare is shifting dramatically. International actors such as the International Committee of the Red Cross (ICRC) explicitly warn that the war in Ukraine has become a global testing ground for lethal autonomous weapons systems (LAWS) – and that human control is increasingly disappearing under combat pressure (Netzpolitik).
The myth of „more precise“ warfare
Advocates of this technology argue that AI enables greater precision. In fact, documented hit rates of autonomous systems are far higher than those of human-controlled attacks. But does precision alone improve the humanity of war? When killing is automated, the inhibition threshold for the use of force also falls. Analysts therefore speak of a dangerous acceleration of escalation cycles: threats are recognized more quickly – and responded to just as quickly, even if mistakes can hardly be corrected later.
Dependence and geopolitical bloc formation
Russia compensates for technological backlogs with alliances with Iran, North Korea and China. In return, Ukraine is increasingly dependent on technology partnerships with Western corporations and start-ups. The result: a hardening of geopolitical blocs – and the risky shift of power away from elected governments to private technology producers. The „axis of dependence“ is thus also exacerbating the risk of a global confrontation over technology standards.
Did you know?
…that international NGOs have been using the term „killer robot“ as a warning signal for over ten years? The „Stop Killer Robots“ campaign points out that the decisive question is not whether a machine is capable of killing – but whether it should ever be allowed to do so.
Tips and tricks – 5 questions we need to ask ourselves
-
Who is responsible? Programmers, manufacturers, commanders – or no one?
-
What is the price of efficiency? Can a higher hit rate replace moral judgment?
-
Who owns the war? How do we prevent private actors from becoming geopolitically decisive?
-
Is there any turning back? Can autonomous weapons in action ever be contained again?
-
Where is the human being? How do we ensure that human suffering remains visible – despite data streams and algorithms?
Top Links
-
Tool/App: Stop Killer Robots – NGO-Campaign for a global prohibition.
-
Study: Stockholm International Peace Research Institute (SIPRI) – Analyses on the militarization of AI.
-
Use Case: AI-Frontiers – Overview of current AI-driven tactics (Ukraine 2025).
At the crossroads of humanity
„Technology makes us powerful, but only wisdom makes us human. This maxim may capture the essence of what is becoming apparent in the war in Ukraine: AI-supported warfare not only demonstrates the feasibility of autonomous systems, but also forces us to answer fundamental questions about responsibility, ethics and control. The real challenge lies not in the development of even more intelligent weapons – but in the collective courage to prevent them from being unleashed.
How do you see this? How can we as a society advance technological development without relinquishing control over ethics and the rules of warfare?
AI is not a force of nature. Get involved.
Your Arno
Linkliste – Sources