Die großen Weltmächte haben das Konzept der intelligenten Kriegsführung entwickelt, das künstliche Intelligenz (KI) in die kognitive Kriegsführung integriert. Dies ist Teil ihrer Drei-Kriege-Doktrin: psychologisch, öffentliche Meinung und juristisch.
Diese Art der Kriegsführung zielt auf die „mentale Beherrschung“ des Gegners durch intelligente psychologische Überwachungssysteme, den Einsatz großer Sprachmodelle für psychologische Operationen und die Entwicklung „kognitiver Konfrontation“ zur Kontrolle des Informationsflusses.
KI-gestützte kognitive Kriegsführung stellt eine beispiellose Herausforderung dar. Ihre Fähigkeit, Wahrnehmungen und Verhaltensweisen massiv und individuell zu manipulieren, geht über traditionelle Konfliktkonzepte hinaus und hat Auswirkungen auf die menschliche Psyche, die noch völlig unbekannt sind.
Deepfakes sind hochkomplexe synthetische Medien, die KI- und maschinelle Lerntechniken (ML) nutzen, um Audio-, Video- oder Bildinhalte so zu fabrizieren oder zu manipulieren, dass sie überzeugend echt wirken.
Der Begriff setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen. Diese Fälschungen können von der Nachahmung von Gesichtern in Videos bis hin zur Erstellung vollständig konstruierter Audioaufnahmen oder Bilder reichen.
Dadurch können sie Personen überzeugend darstellen, die Dinge sagen oder tun, die sie nie getan haben, und sind zunehmend schwieriger von authentischen Aufnahmen zu unterscheiden.
KI kann Stimmungen und Emotionen in Echtzeit analysieren, kognitive Verzerrungen erkennen und personalisierte, auf bestimmte Zielgruppen ausgerichtete Narrative erstellen. Darüber hinaus kann sie Desinformationskampagnen vollständig automatisieren, Inhalte generieren, verbreiten und ihre Wirkung sofort messen.
Stellen Sie sich vor, Sie könnten die Rede eines politischen oder militärischen Führers so verändern, dass sie sich drastisch von der Originalversion unterscheidet.
Die Entwicklung dieser Technologie ist schwindelerregend. Zwischen 2023 und 2024 stiegen die Fälle von Deepfake-Manipulationen im Vergleich zum Vorjahr um 245 %. Ebenso wurde sie eingesetzt, um den Ruf von Einzelpersonen, Institutionen und Regierungen zu schädigen. Allein gegen den venezolanischen Präsidenten Nicolás Maduro wurden in diesem Jahr über tausend gefälschte Videos aufgenommen.
Einer der vielleicht größten Schäden, die dadurch verursacht werden, ist die sogenannte „Lügnerdividende“, die es böswilligen Akteuren ermöglicht, echte Beweise für ihre Handlungen zu leugnen und zu behaupten, authentische Inhalte seien in Wirklichkeit Deepfakes.
Eine wirksame Reaktion auf diese neue Form der Kriegsführung erfordert einen umfassenden Ansatz, der technologische Fortschritte bei der Erkennung, adaptive Regulierungsrahmen, internationale Zusammenarbeit und – ganz entscheidend – die Aufklärung der Öffentlichkeit über die Risiken und Merkmale dieser Medien.