Selon NewsGuard’s Reality Check (17 nov. 2025), des propagandistes pro-Kremlin exploitent l’outil texte‑vers‑vidéo Sora 2 d’OpenAI pour fabriquer des vidéos virales montrant de prétendues redditions de soldats ukrainiens, afin de saper le moral des forces ukrainiennes en pleine guerre Russie‑Ukraine. NewsGuard rappelle qu’un test récent a montré que Sora 2 avançait des contre‑vérités sur des sujets d’actualité dans 80 % des cas lorsqu’il y était incité.

🎥 En novembre 2025, NewsGuard a identifié sept vidéos générées par IA présentées comme des images du front à Pokrovsk, une ville clé de l’Est que des experts estiment proche de tomber. Ces vidéos, cumulant des millions de vues sur X, TikTok, Facebook et Telegram, montrent des scènes de redditions massives et des soldats ukrainiens implorant le pardon de la Russie.

🔎 En réalité, aucune preuve ne corrobore des redditions massives à Pokrovsk. Les vidéos présentent des incohérences notables: équipements et uniformes non conformes à ceux des forces ukrainiennes, visages artificiels, mauvaise prononciation de noms de villes ukrainiennes. Le détecteur d’IA Hive a conclu avec 100 % de certitude que les sept vidéos ont été créées avec Sora 2. Certaines portaient un filigrane Sora visible, d’autres affichaient une zone floue à l’endroit où le filigrane avait été retiré; les deux types ont été partagés comme authentiques.

📢 La diffusion a été portée par des comptes anonymes que NewsGuard identifie comme relayant régulièrement la propagande pro‑Kremlin. Le Centre ukrainien de lutte contre la désinformation indique que ces comptes présentent des signes d’un réseau coordonné conçu pour promouvoir des narratifs du Kremlin auprès d’audiences étrangères.

📬 Interrogée le 12 nov. 2025, OpenAI a indiqué qu’elle allait enquêter et a demandé un délai au 13 nov., sans réponse ultérieure aux relances. NewsGuard rappelle un précédent en avril 2025, où des sources pro‑Kremlin ont utilisé le générateur d’images d’OpenAI pour produire des visuels dénigrant le président Zelensky. Type d’article: analyse de menace visant à documenter une campagne de désinformation par deepfakes vidéo.

🧠 TTPs et IOCs détectés

TTPs

Tactics, Techniques, and Procedures (TTP) identifiés incluent l’utilisation de deepfakes vidéo pour la désinformation (T1566.002 - Spearphishing via Service, T1587.002 - Develop Capabilities: Malware, T1588.002 - Obtain Capabilities: Tool), l’exploitation de l’outil texte-vers-vidéo Sora 2 pour créer des contenus falsifiés, la diffusion de ces contenus via des plateformes de médias sociaux (T1491.001 - Social Media Accounts), et l’utilisation de comptes anonymes pour amplifier la propagande (T1585.001 - Establish Accounts).

IOCs

Aucun indicateur de compromission spécifique tel que hash, domaine ou IP n’est mentionné dans l’analyse fournie.


🔗 Source originale : https://www.newsguardrealitycheck.com/p/kremlin-propagandists-weaponize-openais