• 05.09.2025
  • it-sa News

it-sa Expo&Congress: Keynote von Jean-Marc Rickli zu Künstlicher Intelligenz als geopolitischer Gamechanger

Exklusiv: Kriege und Konflikte werden durch den Einsatz von Künstlicher Intelligenz neue Formen annehmen und könnten zu einer neuen Bedrohungslage führen, so der Keynote-Speaker zur diesjährigen it-sa Expo&Congress, Jean-Marc Rickli. Das betrifft auch den Cyberspace.

Geschrieben von Uwe Sievers

Portrait  Jean-Marc Rickli

Exklusiv: Kriege und Konflikte werden durch den Einsatz von Künstlicher Intelligenz neue Formen annehmen und könnten zu einer neuen Bedrohungslage führen, so der Keynote-Speaker zur diesjährigen it-sa Expo&Congress, Jean-Marc Rickli. Das betrifft auch den Cyberspace.

In seiner Special Keynote am 09. Oktober 2025 zur it-sa Expo&Congress wird Jean-Marc Rickli einen Einblick geben, wie sich KI auf die internationale Sicherheit auswirkt und die internationale Politik neu definieren wird. Er gilt als einer der wichtigsten Sicherheitsexperten der Schweiz und hat viele Hüte auf und wirkt in verschiedenen internationalen Gremien und Organisationen als Berater. Zuvor hatte er verschiedene Professuren inne, unter anderem am Londoner King's College. Im Interview erzählt Rickli, zu welchen geopolitischen Veränderungen Künstliche Intelligenz (KI) führen könnte.

 

Ihre Tätigkeiten sind äußerst vielfältig. Was ist Ihre Hauptaufgabe?

Meine Hauptaufgabe ist die Leitung des Bereichs Globale und Aufkommende Risiken am Genfer Zentrum für Sicherheitspolitik, GCSP. Ich beschäftige mich mit aufkommenden Risiken im Zusammenhang mit neuen Technologien und interessiere mich insbesondere dafür, wie sich die Entwicklung dieser Technologien, insbesondere künstliche Intelligenz, Neurotechnologien und synthetische Biologie, auf die internationale Sicherheit auswirken wird. Mein Fachgebiet ist Kriegsführung mit zwei regionalen Schwerpunkten auf Europa und dem Nahen Osten.

Ich forsche zu diesen Themen und habe außerdem die „Polymath Initiative“ ins Leben gerufen, deren Ziel es ist, die Kommunikation zwischen der wissenschaftlichen Gemeinschaft und politischen Entscheidungsträgern zu verbessern, indem erstere in globaler Governance geschult werden. Sie fungieren dann als Übersetzer, um politischen Entscheidungsträgern wissenschaftliche Entwicklungen zu erklären, und vermitteln ihrer eigenen wissenschaftlichen Gemeinschaft einen breiteren Kontext über die möglichen Auswirkungen wissenschaftlicher Entdeckungen.

 

Was waren die wichtigsten Stationen Ihrer Karriere?

Bevor ich zum GCSP kam, arbeitete ich in Katar als Teil meiner Professur am „Department of Defence Studies“ am King's College London. Davor war ich Professor an der Khalifa University in Abu Dhabi und lehrte internationale Sicherheit. Ich habe in internationalen Beziehungen an der Universität Oxford promoviert, habe aber auch Maschinenbau und Mathematik studiert. Insgesamt habe ich also sowohl einen Hintergrund in den technischen Wissenschaften als auch in den Politikwissenschaften.

 

KI ist ein wichtiges Thema für Sie. Welche Rolle wird KI in Zukunft in bewaffneten internationalen Konflikten spielen, abgesehen von Deepfakes und Desinformation?

KI wird bereits in großem Umfang in ihrer ursprünglichen Funktion als analytisches Hilfsmittel eingesetzt, das heißt zur Datenauswertung oder Big-Data-Analyse. Dies wird beispielsweise sowohl im Gaza-Krieg als auch im Krieg in der Ukraine genutzt, um die Informationsbeschaffung zu verbessern. Die Israelis setzen sie auch ein, um Ziele der Hamas zu identifizieren.

KI wird auch zunehmend in Drohnen eingesetzt. Um Störmanöver gegen Drohnen abzuwehren, werden derzeit in der Ukraine zwei Techniken eingesetzt. Drohnen können über Glasfaserkabel gesteuert oder mit einem Algorithmus ausgestattet werden, der die Navigation übernimmt, falls die Verbindung zum Drohnenpiloten ausfällt. Letzteres wurde beim ukrainischen Angriff „Spiderweb” gegen russische strategische Bomber tief im russischen Territorium eingesetzt.

In Zukunft dürfte KI zunehmend in Drohnenschwärmen eingesetzt werden, um die Verteidigung des Gegners zu überwinden. Das Prinzip dabei ist, eine Masse von Drohnen einzusetzen, um die Verteidigungsfähigkeiten des Verteidigers zu überfordern. KI könnte hier zur Koordination dieser Drohnen eingesetzt werden. Klassische Boden-Luft-Systeme sind für die Abwehr leistungsstarker großer Raketen ausgelegt, die in der Regel recht kostenintensiv sind. Wenn beispielsweise Massen billiger Drohnen mit teuren Patriot-Raketen abgefangen werden müssen, ist dies sehr kostspielig. Der Kostenvorteil liegt dann eindeutig auf der Seite der Angreifer. Es ist anzumerken, dass KI bereits in Luftabwehrsystemen wie dem israelischen Iron Dome eingesetzt wird.

Darüber hinaus erleben wir die Entwicklung zunehmend autonomer Waffen. Vollständig autonome Waffen sind stark auf KI angewiesen, um den Kontext zu verstehen, sich in ihrer Umgebung zu orientieren und ein Ziel zu definieren, zu identifizieren und anzugreifen. Es laufen zwar Verhandlungen bei der UNO, um solche Waffen zu verbieten, doch dies war bisher nicht erfolgreich. Währenddessen schreitet die Entwicklung solcher Systeme voran, aber wir haben noch kein vollständig autonom tötendes Waffensystem gesehen.

Ein weiteres Anwendungsgebiet für KI sind autonome Agenten, d. h. Agenten, die zunehmend autonom agieren. Im Gegensatz zu beispielsweise Chatbots versteht ein KI-Agent die Frage und entwickelt selbstständig eine Strategie zur Lösung des Problems und zur Umsetzung. Im militärischen Bereich sehen wir derzeit die Entwicklung von KI-Agenten zur Beratung von Militärkommandanten. Dies ist erst der Anfang solcher Entwicklungen. Dies wird zu einer zunehmenden Autonomie der Maschinen führen.

 

Werden physische Konflikte wie Kriege in Zukunft zunehmend im Cyberspace stattfinden?

Das glaube ich nicht. Was wir derzeit beispielsweise in der Ukraine erleben, ist ein klassischer physischer Zermürbungskrieg wie der Erste Weltkrieg. Aber im Gegensatz zu diesem verschmelzen die digitale und die physische Welt zunehmend miteinander. Der Geheimdienst stützt sich zunehmend auf Informationen aus dem digitalen Bereich, um Personen zu identifizieren, aber es sind physische Waffen wie Drohnen oder Raketen, die die Ziele „neutralisieren“. Im Krieg in der Ukraine haben wir 2024 die ersten Kämpfe zwischen Robotern erlebt, das heißt Situationen, in denen Roboter – zu Lande, in der Luft oder zu Wasser – gegeneinander antreten. Das ist derzeit noch marginal, aber der Einsatz von Robotern wird in Zukunft wahrscheinlich zunehmen.

KI wird auch im Cyberspace eingesetzt und wird in Zukunft zunehmend an Bedeutung gewinnen. Ich denke dabei beispielsweise an autonome Malware, die selbstständig Ziele identifiziert, nach Sicherheitslücken sucht und geeignete Maßnahmen entwickelt und ausführt, um den Gegner anzugreifen. Gleichzeitig werden wir eine starke Popularisierung von Cyberwaffen erleben. Wenn eine Malware erstellt wird, ist es fast unmöglich, ihre Verbreitung zu stoppen. Man kann die Verbreitung von Codes nicht aufhalten. Außerdem kann eine Malware rückübersetzt werden, um sie zu verändern und für eigene Zwecke zu nutzen.

In Zukunft werden wir uns mit der Vorstellung auseinandersetzen müssen, dass Technologie aufgrund ihrer zunehmenden Autonomie selbst zu einem Akteur im Krieg wird. Bereits 2019 haben mein Co-Autor und ich in einem Buch dargelegt, dass Technologie zunehmend als Stellvertreter im Krieg betrachtet werden muss. Das bedeutet nicht, dass Menschen irrelevant geworden sind, sondern dass die Kriegsführung durch neue Akteure komplexer wird. Folglich bestehen die traditionellen Risiken weiterhin, aber es kommen neue hinzu. Die Bandbreite potenzieller Bedrohungen wächst, was die Verteidigung erschwert, da die Angriffsfläche von Tag zu Tag größer wird.

Um dem optimal entgegenzuwirken, muss man die eigene Resilienz erhöhen. Organisationen müssen widerstandsfähiger werden. Sie sollten davon ausgehen, dass sie angegriffen werden. Der Schlüssel liegt in der Fähigkeit, den Schock zu absorbieren und weiter zu funktionieren. Dazu ist es notwendig, Schwerpunkte zu identifizieren und diese zu schützen. Jeder Schwerpunkt erfordert unterschiedliche Notfallmaßnahmen. Wenn es beispielsweise um Desinformation geht, bedeutet die Stärkung der Resilienz der Bevölkerung, in Bildung, Sensibilisierung und Bewusstseinsbildung zu investieren, idealerweise bereits in der Schule.

 

Welche Rolle wird KI in Zukunft in der Cyberkriegsführung spielen?

KI eignet sich sehr gut als Informationsinstrument, um Daten zu sammeln und zu analysieren und daraus Muster abzuleiten. KI kann und wird die Verteidigung im Bereich der Cybersicherheit verbessern. Aber dieselben Instrumente können auch für offensive Zwecke eingesetzt werden. Sie eignen sich beispielsweise auch gut, um Sicherheitslücken zu identifizieren. Man kann nie alle Lücken vorhersehen, jede Antivirensoftware ist nur so gut wie die zuletzt identifizierte Malware. Zero-Day-Schwachstellen können von Antivirenprogrammen nicht identifiziert werden. In Zukunft sollten wir mehr Wert auf Resilienz als auf Verteidigung legen. Letztere ist reaktiv, während erstere vorausschauend ist. Angreifer optimieren ihre Algorithmen sehr schnell. Man kann nicht nur reaktiv sein, da man bei der Entwicklung von Verteidigungsmaßnahmen nicht mit dem Tempo der Innovation Schritt halten kann, sondern muss vorausschauend handeln. Daher sollte die Konzentration auf Resilienz, unterstützt durch vorausschauende Analysen, auf jeden Fall Teil des Sicherheitsinstrumentariums sein.

 

Welche geopolitischen Veränderungen könnte KI in internationalen Konflikten bewirken? Wird der Stand der KI-Entwicklung Einfluss darauf haben, wer Weltmacht ist?

Die Frage ist, wie KI die globale Macht neu verteilt. Zwei Länder, die USA und China, sind derzeit führend in der technologischen Entwicklung, alle großen Tech-Unternehmen kommen von dort. Europa spielt nicht in derselben Liga, was für die europäische Souveränität und strategische Autonomie höchst problematisch ist. In Zeiten des verschärften Wettbewerbs zwischen den Großmächten ist KI zu einem entscheidenden Faktor in diesem Wettlauf um die globale Macht geworden.

Die Rivalität zwischen China und den USA nimmt zu, und Technologie spielt dabei eine Schlüsselrolle. Die USA üben Druck auf die EU aus, nicht mit chinesischer Technologie und chinesischen Unternehmen zusammenzuarbeiten. In einem kürzlich veröffentlichten Beitrag auf Truth Social vom 26. August droht Präsident Trump mit Sanktionen und Zöllen gegen alle Akteure, die die Entwicklung US-amerikanischer Digitalunternehmen behindern würden. Dies zielt speziell auf den Digitalen Binnenmarkt der EU ab, dessen Ziel es ist, Beschränkungen für Social-Media-Plattformen einzuführen. Da Europa jedoch nicht in der Lage ist, dem entgegenzuwirken, und keine digitalen Vorreiter hat, ist es stark von der Technologie abhängig, die von US-Unternehmen und in geringerem Maße auch von chinesischen Unternehmen entwickelt wird. Dies erhöht die Anfälligkeit Europas. Hinzu kommt der Lock-in-Effekt bestehender digitaler Plattformen. Darüber hinaus zwingt die zunehmende technologische Entkopplung zwischen China und den USA Unternehmen und Länder zunehmend dazu, sich für eine Seite zu entscheiden.

 

Welche Rolle wird Information in zukünftigen Konflikten spielen?

Hier sehe ich den größten Einfluss auf die internationale Sicherheit. Desinformation ist nichts Neues; das Trojanische Pferd beispielsweise basierte teilweise auf Desinformation, um es hereinzulassen. Was sich geändert hat, sind das Ausmaß und die Reichweite. Der digitale Bereich ermöglicht es, eine enorme Menge an Daten über jeden Einzelnen, jedes Unternehmen und jedes Land zu sammeln. KI erleichtert die Verarbeitung solcher Daten und ermöglicht es, Menschen mit einer in der Geschichte der Menschheit beispiellosen Genauigkeit zu profilieren. KI ermöglicht es auch, Desinformationskampagnen durchzuführen, die sich mit maßgeschneiderten Botschaften an bestimmte Personen richten, jedoch auf nationaler Ebene. Mit der Generierung neuer Daten, nicht nur im digitalen Bereich, sondern auch im kognitiven und biologischen Bereich, wird es zunehmend möglich sein, von der Informations- zur kognitiven Kriegsführung überzugehen, bei der kontrolliert wird, wie und was Menschen denken, um ihr Handeln zu steuern. Beispielsweise ermöglicht die Kombination von Daten aus sozialen Medien und smarten Geräten sowie Verbrauchertechnologien wie Smartwatches die Erfassung riesiger Datenmengen über den emotionalen Zustand von Menschen. Die Kenntnis emotionaler Zustände erleichtert es, diese zu kontrollieren, zu verstärken oder sogar auszulösen. Die Kontrolle solcher Daten, insbesondere kognitiver Daten, wird zunehmend strategische Bedeutung erlangen. KI spielt dabei eine entscheidende Rolle, da Skalierbarkeit eine wichtige Fähigkeit von KI ist. Je mehr solche Daten wir sammeln, desto einfacher wird es, größere Massen von Menschen zu kontrollieren.

Weiterführende Literatur:

Jean-Marc Rickli, Andreas Krieg: Surrogate Warfare: The Transformation of War in the 21st Century”

Special Keynote: Sicherheit und geopolitische Auswirkungen neuer Technologien

Ein Überblick über die Auswirkungen neuer Technologien auf die internationale Sicherheit und Geopolitik

Special Keynote auf der it-sa Expo&Congress 2025 mit Jean-Marc Rickli, Head of Global and Emerging Risks, Geneva Center for Security Policy GCSP