KI und Frieden



KI-Logbuch

Inspiration, Entdeckungen, Anwendungen

Midjourney Bild zum Thema Krieg, Frieden und Next Gen

KI und Frieden

Created on 2024-07-12 22:48

Published on 2024-07-17 04:00

Liebe Neugierige, Kreative, Entdecker*innen,

heute geht es um „Künstliche Intelligenz & Krieg“. Es wird etwas länger als üblich. Da passiert gerade so einiges.

„Ich bin nicht sicher, mit welchen Waffen der dritte Weltkrieg ausgetragen wird, aber im vierten Weltkrieg werden sie mit Stöcken und Steinen kämpfen.“ Albert Einstein

Einstein lässt nichts Gutes am Menschen. Soll er damit recht behalten? Oder schaffen wir Menschen das alles vielleicht doch noch, so als gesamtheitliche Zivilisation? Bestehen wir den, wie ich immer gerne dazu sage, „Lackmustest KI“? Schauen wir mal, wie es um uns steht, wenn wir über KI, Krieg und Frieden nachdenken. Spoiler: KI hat die moderne Kriegsführung schon heute massiv verändert. Nur, welche ethischen Fragen ergeben sich daraus? Fangen wir mal vorne an. Also, ganz weit vorne, direkt an der Frontlinie sozusagen.


KI an die Front?

KI hat in den letzten Jahren auch vor dem Militär nicht Halt gemacht. Hat es übrigens nie wirklich. Was aber schon anders ist: der rapide Anstieg an Ländern und Unternehmen, die in den vergangenen 3 Jahren auf intelligente Algorithmen setzen, um ihre Streitkräfte zu unterstützen. Der aktuelle, russische Angriffskrieg gegen die Ukraine „könnte rückblickend als KI-Krieg in die Geschichte eingehen“ vermutet das Handelsblatt. Das zeigen auch die zahlreiche Unternehmen, die sich und ihre KI-Dienste den unterschiedlichsten Kriegsparteien anbieten.

So nutzt beispielsweise das US-Unternehmen Palantir Technologies seine Artificial Intelligence Platform (AIP), um seine Kunden bei militärischen Entscheidungen zu beraten. Die AIP kann unter anderem einen Chatbot bereitstellen, der Empfehlungen für den Einsatz bestimmter Arten von Raketen, Langstreckenartillerie oder Lufteinheiten in verschiedenen Kontexten geben kann. Der Studie „Artificial Intelligence Integration as a Strategic Imperative for National Security“ von Dmitry Igorevich Mikhailov zufolge verschlechterte sich aber im Verlauf einer Demo die Leistung von Palantir’s AIP, sodass menschliches Eingreifen erforderlich wurde, um die Genauigkeit und Logik der Anwendung wiederherzustellen (Quellverweis hier).

Auch Drohnen wie die türkische Bayraktar TB2 kommen verstärkt zum Einsatz und haben sich im Ukraine-Krieg als effektive Waffe erwiesen. Die unbemannte Drohne Bayraktar TB2 wurde bisher in 32 Länder exportiert und gilt als das meist exportierte bewaffnete unbemannte Luftfahrzeug der Welt. Bisher wurden 600 Bayraktar TB2 Drohnen produziert mit einer Gesamtflugzeit von 750.000 Flugstunden (Stand Dezember 2023). Was mir an der Drohne besonders auffiel: sie ist mit einem Sensorpaket ausgestattet, das es der TB2 erlaubt, andere Drohnen oder Raketen zu ihren jeweiligen Zielen zu leiten und sich selber gleichzeitig außerhalb der Reichweite von Abwehrsystemen aufzuhalten. Im Grunde also ein autonomer Dirigent für andere KI-befähigte Systeme. Wo bleibt der Mensch?

Fiktionale KI Schaltzentrale

KI und Rüstung – das „Who is Who“ der Großunternehmen

Überhaupt spielen schon lange alle großen Unternehmen mit, wenn es darum geht, KI in ihre Systeme zu integrieren – übrigens nicht erst seit dem im zivilen Sektor aufgekommenen Hype um generative KI. Vor allem der „Dual Use„, also die Möglichkeit, dass im militärischen Sektor entwickelte Produkte auch für den zivilen Sektor nutzbar gemacht werden, trägt zu einer zunehmenden Verflechtung des militärischen und zivilen Sektors bei. Besonders pikant dabei, das geht auch anders herum. Der Pharmakologe Sean Ekins verwendet 2022 bereits KI, um Medikamente zur Behandlung von bisher unheilbaren Krankheiten zu entwickeln. Dann verändert er testweise den Prompt und das System unterbreitet dem Forscher Tags darauf eine Liste mit mehr als 40.000 für den Menschen hochtoxischen Molekülen. „Dual Use“ wird auch von einigen der folgenden Unternehmen genutzt:

  • Anduril: Ein schnell wachsendes Startup, das 2017 gegründet wurde und autonome Verteidigungssysteme entwickelt, einschließlich Drohnen und Überwachungstürme.

  • Palantir: Bereits weiter oben erwähnt.

  • Lockheed Martin: Ein bedeutender Rüstungsauftragnehmer, der KI-Lösungen für verschiedene militärische Anwendungen entwickelt, einschließlich des BLADE-Systems zur Erkennung und Charakterisierung von neuen, drahtlosen Kommunikationsbedrohungen.

  • Raytheon Technologies: Verwenden KI und maschinelles Lernen in Bereichen wie vorausschauende Wartung, Zielerkennung und ISR-Fähigkeiten (Intelligence, Surveillance, Reconnaissance). Stand 2021 befand sich das Unternehmen außerdem in Zusammenarbeit mit der DARPA in der Entwicklung eines neuronalen Netzwerks, das in der Lage sein sollte, sich selbst zu erklären. So zeigt das „Explainable Question Answering System“ (EQUAS) seinen Nutzern, welche Daten im Entscheidungsprozess der künstlichen Intelligenz am wichtigsten waren. Die Nutzer können dem System Fragen zu ausgewählten Empfehlungen stellen und erfahren, warum es andere abgelehnt hat.

  • Northrop Grumman: Entwickelt KI/ML-Lösungen für komplexe Missionssysteme, einschließlich autonomer Drohnen und intelligenter Sensoren.

  • BAE Systems: Arbeitet an maschinellen Lernanalysen und der Integration von KI in elektronische Kriegssysteme. Besonders interessant und ein alter „Bekannter“ (ich habe einen kompletten Newsletter dazu geschrieben): globale „situational awareness“ via KI als „machine learning analytics as a service for constant global situational awareness„.

  • Thales Group: Entwickelt KI-Systeme für kritische militärische Operationen, einschließlich Zielerkennungssoftware. Besonderen Wert legt die Thales Group auf den „Soldaten der Zukunft„.

  • SparkCognition: Ein KI-Unternehmen, das an Anwendungen für die Verteidigung arbeitet.

  • Shield AI: Konzentriert sich auf KI-gesteuerte autonome Systeme für militärische Zwecke. Vorzeigeprodukt ist „Hivemind„, der nach eigenen Angaben „Beste KI Pilot der Welt“. Es ermöglicht Schwärmen von Drohnen und Flugzeugen, autonom ohne GPS, Kommunikation oder einen Piloten zu operieren.

  • Preligens: Ein französisches Startup, das sich auf KI-Überwachung für Verteidigungszwecke spezialisiert.

Befürworter argumentieren, KI-gestützte Systeme agierten präziser und schneller als Menschen. Sie versprechen sich davon weniger Kollateralschäden und eine Reduzierung von Verlusten auf der eigenen Seite. Der tatsächliche Schauplatz militärischer Auseinandersetzungen entfernt sich durch KI Lösungen immer weiter von den Menschen, die den jeweiligen Konflikt aktiv unterstützen. Unter anderem deshalb warnen Kritiker vor einer Entmenschlichung des Krieges und dem Risiko unkontrollierbarer autonomer Waffensysteme. Wohin das führen könnte, zeigt die utopische Vision von Federico Heller in Form eines Kurzfilms mit dem Titel „Uncanny Valley„. Was können Menschen Menschen zutrauen? Welche Rolle spielen Maschinen in Zukunft dabei? Gesellschaft wird sich wieder einmal an die fortschreitende Evolution der Technologie mit gesellschaftlich, politischen und juristischen Antworten anpassen müssen. Hoffen wir mal, das wir nicht auch unseren ethisch-moralischen Wertekanon erneut anpassen müssen. Denn klar ist, wir betreten hier…

Midjourney Bild: Machine Mornings

…ethische Grauzonen und rechtliche Herausforderungen

Die zunehmende Automatisierung wirft grundlegende ethische Fragen auf. Dürfen Maschinen über Leben und Tod entscheiden? Wie lässt sich sicherstellen, dass KI-Systeme das humanitäre Völkerrecht einhalten? Der katholische Theologe Lukas Brand betont: „Maschinen sollten nicht über das Schicksal von Menschen entscheiden.“

Auch rechtlich bewegen wir uns in einer Grauzone. Das bestehende Völkerrecht wurde nicht für KI-gesteuerte Waffensysteme konzipiert. Experten wie Bonnie Docherty von der Harvard Law School fordern daher ein Verbot von Waffen, die ohne menschliche Kontrolle operieren.


Zwischen Innovation und Verantwortung

Die Entwicklung schreitet trotz aller Bedenken voran. Länder wie die USA, China und Russland investieren massiv in militärische KI-Technologien. Gleichzeitig wächst das Bewusstsein für die Notwendigkeit ethischer Leitlinien in Deutschland während andere Länder eher technische Details interessieren.

Ich denke, es liegt an uns allen, einen ausgewogenen Weg zwischen technologischem Fortschritt und moralischer Verantwortung zu finden. Nur so können wir die Chancen von KI nutzen, ohne Gefahr zu laufen, dabei unsere Menschlichkeit zu verlieren.


Tipps und Tricks: sich informiert halten

  1. Folge renommierten Forschungsinstituten wie SIPRI oder CSIS auf Social Media.

  2. Lese Fachliteratur von Experten wie Paul Scharre oder Stuart Russell.

  3. Verfolge Debatten in internationalen Gremien wie der UN.

  4. Diskutiere das Thema mit anderen und bilde Dir so eine eigene Meinung.

  5. Bleibe kritisch gegenüber Heilsversprechen oder Horrorszenarien.

Midjourney Bild: What’s next? Wir gehe ich mit der Info-Flut richtig um?


Top Links zum Thema

Killer-Roboter? Die Bedeutung von Künstlicher Intelligenz im militärischen Einsatz – Umfangreicher Überblick des National Geographic zum Thema „KI und Militär“ von Sophie-Claire Wieneke.

Das Terminator-Dilemma – Wie KI die Kriegsführung verändert – Über KI Startups bei der Bundeswehr, KI Ethik, das US Militär im Silicon Valley und „Befangenheit“ (Bias) im Code.

Entscheidet Künstliche Intelligenz den nächsten Krieg? – Podcast „KI verstehen“ des Deutschlandfunk zum Thema „KI fürs Militär“.


Schlussgedanken

Die Recherchen zu diesem Newsletter haben mich wieder einmal auf eine Reise mitgenommen. Niemals hätte ich auch nur im Ansatz erahnen können, wie weit KI Entwicklungen im militärischen Bereich bereits vorangeschritten sind. Umso mehr wundere ich mich, wie wenig dieses Thema ins Zentrum der Debatten gerückt ist. Dabei wäre es doch gerade jetzt wichtig, hier die Menschen mitzunehmen, ganz im Sinne einer aufgeklärten Öffentlichkeit. Oder möchten die das alles ja vielleicht gar nicht wissen? Ist vielleicht schon jetzt alles „zu viel“ für die meisten? Dabei betrifft die weitere Entwicklung von KI nicht nur den militärischen Bereich, sondern im zivilen Bereich auch uns! Kant’s Imperativ:

„Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

Kant gab dazu bereits genug Impulse. Lasst uns gemeinsam dafür sorgen, dass die Entwicklung militärischer KI diesem Anspruch gerecht wird. Ähnlich des „AI Safety Summit“ gibt es zahlreiche Initiativen, die genau dieses Ziel verfolgen.

Bleibt neugierig,

Euer Arno Selhorst


Weiterführende Links


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert