paint-brush
Die Ethik der KI in der modernen Kriegsführung: Innovation und moralische Verantwortung in Einklang bringenvon@nimit
517 Lesungen
517 Lesungen

Die Ethik der KI in der modernen Kriegsführung: Innovation und moralische Verantwortung in Einklang bringen

von Nimit6m2024/04/06
Read on Terminal Reader

Zu lang; Lesen

Dieser Artikel befasst sich mit den ethischen Dilemmata, die der Einsatz von KI in der Kriegsführung mit sich bringt, und untersucht die Auswirkungen autonomer Waffensysteme und ihre Auswirkungen auf militärische Strategien. Er wägt die Vorteile einer höheren Präzision und geringerer menschlicher Verluste gegen die moralischen Bedenken ab, die mit der Delegierung von Entscheidungen über Leben und Tod an Maschinen verbunden sind, sowie die Herausforderungen, die sich aus der Einhaltung der Prinzipien der Theorie des gerechten Krieges ergeben. Der Artikel befasst sich auch mit internationalen Bemühungen um Regulierung und Rechenschaftspflicht bei KI-gesteuerten militärischen Anwendungen.
featured image - Die Ethik der KI in der modernen Kriegsführung: Innovation und moralische Verantwortung in Einklang bringen
Nimit HackerNoon profile picture
0-item

Künstliche Intelligenz (KI ) entwickelt sich in vielen Lebensbereichen zu einer transformativen Kraft, die bereits damit beginnt, Branchen zu revolutionieren und unsere Lebens- und Arbeitsweise zu verändern. Das Thema KI in der Kriegsführung wird zunehmend Aufmerksamkeit von Regierungen, politischen Entscheidungsträgern und internationalen Organisationen erfordern. Ein großer Teil davon ist auf bedeutende Fortschritte bei der Entwicklung autonomer Waffensysteme (AWS) zurückzuführen, die mithilfe von Algorithmen unabhängig und ohne menschliche Aufsicht auf dem Schlachtfeld operieren. Allgemeiner gesagt hat KI in ihren vielen Formen das Potenzial, eine Reihe militärischer Aktivitäten zu verbessern, von der Robotik und Waffentechnik bis hin zur Informationsbeschaffung und Entscheidungsfindung.


Mit einer solchen Vielfalt potenzieller Anwendungen geht eine Reihe einzigartiger ethischer Dilemmata einher. Die Vorteile der KI in der Kriegsführung liegen in höherer Präzision, geringeren menschlichen Verlusten und sogar in einer Abschreckung vor bewaffneten Konflikten, die der Bedrohung durch einen Atomkrieg gleichkommt. Dies würde jedoch bedeuten, Maschinen die Fähigkeit zu geben, bewusste Entscheidungen über Leben und Tod zu treffen, wodurch die Grenzen der Verantwortlichkeit verschwimmen und möglicherweise gegen die grundlegenden Prinzipien der Moral in der Kriegsführung verstoßen würde.


Ein kurzer Überblick über KI in der Kriegsführung

Wie das Stockholmer Friedensforschungsinstitut darlegt, ist KI zu einem entscheidenden Bestandteil militärischer Strategien und Budgets geworden und trägt zum breiteren „Wettrüsten“ bei[1]. In Kombination mit nuklearen und atomaren Bedrohungen muss die Geopolitik daher die Ethik der fortgesetzten Bewaffnung von Technologie hinterfragen. Einige glauben, dass diese Fortschritte letztlich dazu führen werden, dass das Nullsummendenken die Weltpolitik dominiert. Diese Logik ist nicht neu; Alfred Nobel hoffte, die Zerstörungskraft des Dynamits würde alle Kriege beenden[2].


KI wird bereits in Kriegstechnologien wie Drohnenschwärmen, Lenkwaffen und logistischen Analysen eingesetzt. Autonome Systeme werden sogar schon seit längerem in Verteidigungswaffen eingesetzt, beispielsweise in Antifahrzeug- und Antipersonenminen. Zukünftige Entwicklungen werden weiterhin auf ein höheres Maß an Autonomie abzielen. Die USA testen KI-Bots, die eine modifizierte Version des F-16-Kampfjets selbst fliegen können; Russland testet autonome Panzer; und auch China entwickelt seine eigenen KI-betriebenen Waffen[3].


Das Ziel ist, Menschenleben zu schützen, indem die Mechanisierung und Automatisierung von Schlachtfeldern voranschreitet. „Ich kann mir gut eine Zukunft vorstellen, in der es in den Streitkräften deutlich mehr Drohnen als Soldaten gibt[3]“, sagte Douglas Shaw, leitender Berater der Nuclear Threat Initiative. Anstatt Soldaten am Boden einzusetzen, retteten wir Leben, indem wir sie in Flugzeuge steckten und mit Raketen bewaffneten. Jetzt hoffen die Streitkräfte, mit Hilfe künstlicher Intelligenz noch mehr Menschenleben vor ihren Streitkräften zu retten.


Moralische Auswirkungen von KI in der Kriegsführung

Das klingt bisher großartig. Retten Sie Leben, indem Sie KI zur Steuerung von Drohnen einsetzen. Retten Sie Leben, indem Sie KI zum Abschuss von Raketen einsetzen. Der Unterschied zwischen diesem technologischen Sprung in der Kriegsführung und früheren Innovationen ist das Fehlen menschlicher Beteiligung an der Entscheidungsfindung. Mit AWS und tödlichen autonomen Waffensystemen (LAWS) geben wir die Macht, einen Menschen zu töten, an einen Algorithmus ab, der keine intuitive Menschlichkeit besitzt.


Hier ergeben sich mehrere ethische, moralische und rechtliche Fragen.


Ist es gerecht, dass im Krieg Menschenleben vernichtet werden, ohne dass auf der anderen Seite dieser Aktion ein anderer Mensch steht? Hat der Programmierer eines Algorithmus in einem LAWS die gleiche Verantwortung, sein Land zu vertreten, wie ein Kampfpilot und/oder das gleiche Recht, zum Tod von Feinden beizutragen?


Ist es – wie bei den ethischen Dilemmata rund um autonome Fahrzeuge[4] – moralisch vertretbar, Entscheidungen über Leben und Tod an KI-gestützte Algorithmen zu delegieren? Aus technologischer Sicht wird dies teilweise von der Transparenz der Programmierung von AWS abhängen: Training, verwendete Datensätze, kodierte Präferenzen und Fehler wie Voreingenommenheit in diesen Modellen. Selbst wenn wir ein angemessenes Maß an Genauigkeit und Transparenz erreichen, sollten AWS und LAWS in der Kriegsführung als moralisch angesehen werden?


Moralische Implikationen der Theorie des gerechten Krieges

Die Theorie des gerechten Krieges, die im 13. Jahrhundert dem heiligen Augustinus und Thomas von Aquin zugeschrieben wird[5], bewertet die Moralität der Kriegsführung und die ethische Entscheidungsfindung in bewaffneten Konflikten. In den Richtlinien für jus ad bellum (Gerechtigkeit des Krieges) und jus in bello (Gerechtigkeit im Krieg) sind die wichtigsten Überlegungen:


  • Verhältnismäßigkeit: Der Einsatz von Gewalt muss im Hinblick auf das angestrebte Ziel verhältnismäßig sein und darf im Verhältnis zum erwarteten Nutzen keinen übermäßigen Schaden oder Leid verursachen.
  • Diskriminierung: Dieses Prinzip wird auch als Immunität von Nichtkombattanten bezeichnet und erfordert, dass Kombattanten zwischen Kombattanten und Nichtkombattanten unterscheiden und nur Erstere ins Visier nehmen, während der Schaden für Letztere so gering wie möglich gehalten wird.


Man könnte argumentieren, dass der Einsatz KI-gestützter Waffen und LAWS keine Garantie für die Einhaltung dieser Konventionen darstellt.


Was die Verhältnismäßigkeit betrifft, könnten KI-gestützte Waffen schneller, stärker und präziser als je zuvor Gewalt einsetzen. Würde dieses Gewaltniveau unbedingt der Bedrohung bzw. dem militärischen Ziel entsprechen, insbesondere wenn es gegen ein Land mit weniger technologisch fortschrittlichen Waffen eingesetzt wird? Und was wäre, wenn ein LAWS mit falschen Informationen gefüttert würde oder halluziniert und eine ungenaue Vorhersage erstellt? Dies könnte zur Bildung und Ausführung unnötiger militärischer Gewalt und unverhältnismäßiger Aktionen führen.


Was die Diskriminierung betrifft, sind diese Technologien nicht hundertprozentig zuverlässig. Was passiert, wenn eine Rakete auf eine feindliche Streitmacht abgefeuert wird und Gesichtserkennungstechnologien[6] nicht zwischen Zivilisten und Kämpfern unterscheiden können? Dies würde die moralische Unterscheidung zwischen legitimen militärischen Zielen und unschuldigen Passanten untergraben.


Fallstudie

Ein UN-Expertengremium berichtete 2020 über den möglichen Einsatz eines LAWS - STM Kargu-2 - in Libyen, das vom türkischen Militär gegen die Haftar Affiliated Forces (HAF) eingesetzt wurde[7]. Die Drohneneinheiten wurden als „so programmiert, dass sie Ziele angreifen, ohne dass eine Datenverbindung zwischen dem Bediener und der Munition erforderlich ist“ [8] beschrieben und schließlich durch elektronische Störsender neutralisiert. Der Einsatz dieser ferngesteuerten Lufttechnologie änderte jedoch das Blatt für einen Konflikt, der zuvor „ein Konflikt niedriger Intensität und geringer Technologie war, in dem die Vermeidung von Opfern und der Schutz der Streitkräfte für beide Parteien Priorität hatten“[7].


Obwohl die unbemannten Angriffsdrohnen erhebliche Verluste verursachten, ist nicht klar, ob sie tatsächlich Todesopfer forderten[8]. Dennoch wirft dies ein Schlaglicht auf die Probleme, die mit dem unregulierten, unbemannten Einsatz von Kampfflugzeugen und Drohnen einhergehen.


Die HAF-Einheiten waren nicht darauf trainiert, sich gegen diese Art von Angriffen zu verteidigen, hatten keinen Schutz vor den Luftangriffen (die trotz der Offline-Funktion der Drohnen stattfanden) und wurden selbst auf dem Rückzug weiterhin von den LAWS bedrängt. Dies allein verstößt bereits gegen den Grundsatz der Verhältnismäßigkeit, und dies gilt umso mehr, wenn man bedenkt, dass die STM Kargu-2 die Dynamik des Konflikts verändert haben. Berichte gehen so weit, zu behaupten, dass „die Einführung fortschrittlicher Militärtechnologie durch die Türkei in den Konflikt ein entscheidendes Element in dem … ungleichen Zermürbungskrieg war, der 2020 zur Niederlage der HAF in Westlibyen führte“[7].


Internationale Zusammenarbeit und Regulierung von KI in militärischen Anwendungen

Seit 2018 vertritt UN-Generalsekretär António Guterres die Ansicht, dass LAWS sowohl politisch als auch moralisch inakzeptabel seien[9]. In seiner Neuen Agenda für den Frieden 2023 fordert Guterres, dass diese bis 2026 formalisiert und umgesetzt wird. Im Rahmen dieser Agenda schlägt er ein vollständiges Verbot der Nutzung von AWS vor, die ohne menschliche Aufsicht funktionieren und nicht mit dem Völkerrecht vereinbar sind, sowie die Regulierung aller anderen AWS.


Diese Art internationaler Zusammenarbeit und Regulierung wird notwendig sein, um die von uns diskutierten ethischen Bedenken auszuräumen. Derzeit wird die Nutzung von AWS ohne menschliche Aufsicht die unmittelbarsten Probleme verursachen. Das Fehlen eines menschlichen Entscheidungsträgers wirft Fragen der Verantwortung auf. Wer übernimmt ohne Befehlskette die Verantwortung für die Fehlfunktion oder allgemeine Fehlbarkeit eines KI-gestützten Systems?


Darüber hinaus würde es zu einem Mangel an Rechenschaftspflicht kommen. Insbesondere in der traditionellen Kriegsführung, in der es definierte moralische Prinzipien wie die Theorie des gerechten Krieges gibt, gäbe es hier keinen Schuldigen für die Handlungen autonomer Systeme.


Zwar bringt die zunehmende Nutzung künstlicher Intelligenz im militärischen Bereich auch Vorteile mit sich, doch wird die Art und Weise, wie diese Technologien letztlich eingesetzt werden, darüber entscheiden, ob sie eine utopische Lösung darstellen oder zu einer Ausweitung des bereits jetzt politisch destabilisierenden Wettrüstens führen.


Daher wird die fortgesetzte Diskussion über internationale, rechtlich bindende Rahmenbedingungen zur Gewährleistung der Rechenschaftspflicht in der KI-Kriegsführung wohl einer der wichtigsten Bereiche der KI-Regulierung in naher Zukunft sein.



Verweise

  1. Innovationen als Waffe einsetzen: Eine Kartierung der Sicherheit und Verteidigung in der EU, die auf künstlicher Intelligenz basiert
  2. Krieg und Technologie - Foreign Policy Research Institute
  3. Wie KI die Kriegsführung revolutionieren wird
  4. Ethische KI und autonome Fahrzeuge: Für moralische Prinzipien im Zeitalter selbstfahrender Autos eintreten | HackerNoon
  5. Theorie des gerechten Krieges | Internet-Enzyklopädie der Philosophie
  6. Voreingenommenheit in der Gesichtserkennungstechnologie: Erkunden Sie, wie Gesichtserkennungssysteme Voreingenommenheit aufrechterhalten können | HackerNoon
  7. Libyen, der Einsatz tödlicher autonomer Waffensysteme | Wie schützt das Recht im Krieg? - Online-Fallbuch
  8. Die autonome Kampfdrohne Kargu-2: Rechtliche und ethische Aspekte - Lieber Institute West Point
  9. Tödliche autonome Waffensysteme (LAWS) – UNODA