Campagne de deepfakes pro-Kremlin: des vidéos Sora 2 simulent des redditions de soldats ukrainiens

Selon NewsGuard’s Reality Check (17 nov. 2025), des propagandistes pro-Kremlin exploitent l’outil texte‑vers‑vidĂ©o Sora 2 d’OpenAI pour fabriquer des vidĂ©os virales montrant de prĂ©tendues redditions de soldats ukrainiens, afin de saper le moral des forces ukrainiennes en pleine guerre Russie‑Ukraine. NewsGuard rappelle qu’un test rĂ©cent a montrĂ© que Sora 2 avançait des contre‑vĂ©ritĂ©s sur des sujets d’actualitĂ© dans 80 % des cas lorsqu’il y Ă©tait incitĂ©. đŸŽ„ En novembre 2025, NewsGuard a identifiĂ© sept vidĂ©os gĂ©nĂ©rĂ©es par IA prĂ©sentĂ©es comme des images du front Ă  Pokrovsk, une ville clĂ© de l’Est que des experts estiment proche de tomber. Ces vidĂ©os, cumulant des millions de vues sur X, TikTok, Facebook et Telegram, montrent des scĂšnes de redditions massives et des soldats ukrainiens implorant le pardon de la Russie. ...

19 novembre 2025 Â· 2 min

SecretDesires.ai expose prĂšs de 1,8 million d’images/vidĂ©os via des conteneurs Azure non sĂ©curisĂ©s

Selon 404 Media, la plateforme d’« erotic roleplay » et de gĂ©nĂ©ration d’images SecretDesires.ai a laissĂ© des conteneurs Microsoft Azure Blob non sĂ©curisĂ©s exposant prĂšs de 1,8 million de fichiers (images et vidĂ©os), avant de couper l’accĂšs aprĂšs notification par le mĂ©dia. 🔓 Incident et pĂ©rimĂštre de l’exposition Des liens vers des images/vidĂ©os Ă©taient accessibles publiquement via des conteneurs Azure non authentifiĂ©s, y compris des fichiers XML listant les URLs. Conteneurs concernĂ©s: « removed images » (~930 000 images), « faceswap » (~50 000 images) et « live photos » (~220 000 vidĂ©os), pour un total d’environ 1,8 million de fichiers (avec duplications possibles). AprĂšs l’alerte envoyĂ©e par 404 Media, les fichiers sont devenus inaccessibles. La sociĂ©tĂ© (Playhouse Media, CEO: Jack Simmons) n’a pas rĂ©pondu aux questions. 📩 Nature des donnĂ©es exposĂ©es et usages ...

19 novembre 2025 Â· 3 min

Suisse: Rapport semestriel NCSC 2025/I — menaces Ă©levĂ©es, hausse du ransomware et du phishing en temps rĂ©el

Source: National Cyber Security Centre (NCSC, Suisse) — Semi-Annual Report 2025/I (janvier–juin 2025). Le NCSC constate un volume d’incidents stabilisĂ© Ă  un niveau Ă©levĂ© (35 727 signalements, dont 58 % de fraude) et une situation globale relativement stable malgrĂ© l’innovation des attaquants. Les thĂšmes majeurs restent phishing, malware/ransomware, vulnĂ©rabilitĂ©s, fraude et ingĂ©nierie sociale, DDoS hacktiviste, fuites/exfiltration et cyberespionnage. Depuis le 1er avril 2025, le signalement obligatoire pour les infrastructures critiques est en vigueur. ...

19 novembre 2025 Â· 3 min

Deepfake-as-a-Service 2025 : clonage de voix et fraudes aux médias synthétiques frappent les entreprises

Source : Darknet.org.uk — L’article traite en 2025 du phĂ©nomĂšne « Deepfake-as-a-Service » et explique comment le clonage de voix et les mĂ©dias synthĂ©tiques affectent les entreprises. 🎭 Le contenu met en avant la montĂ©e des services de deepfake « prĂȘts Ă  l’emploi » et leur utilisation dans la fraude ciblant les organisations, en soulignant leur impact opĂ©rationnel et rĂ©putationnel. Les deepfakes ont quittĂ© le domaine expĂ©rimental pour devenir un modĂšle Ă©conomique criminel industrialisĂ©, baptisĂ© Deepfake-as-a-Service (DFaaS). Ces services permettent aujourd’hui Ă  n’importe quel acteur malveillant de louer des capacitĂ©s de clonage vocal ou vidĂ©o en temps rĂ©el pour mener des fraudes, manipulations sociales ou opĂ©rations d’espionnage Ă  grande Ă©chelle. ...

3 novembre 2025 Â· 3 min

La tendance « Nano Banana AI » crée une vaste base biométrique exploitable pour fraude et deepfakes

Selon PointWild (rĂ©fĂ©rence: pointwild.com), la tendance virale « Nano Banana AI » s’appuie sur l’outil Gemini 2.5 Flash Image de Google pour transformer des selfies en avatars 3D, crĂ©ant une base biomĂ©trique massive et volontairement fournie par les utilisateurs. Le flux « Nano Banana » capte des « empreintes » biomĂ©triques et techniques: gĂ©omĂ©trie faciale, donnĂ©es de device fingerprinting, coordonnĂ©es GPS et biomĂ©trie comportementale, en plus des images. Plus de 200 millions d’images auraient Ă©tĂ© gĂ©nĂ©rĂ©es Ă  l’échelle mondiale. ...

23 septembre 2025 Â· 2 min

F1: deepfakes, apps malveillantes et vols de télémétrie ciblent équipes, dirigeants et fans

Selon CloudSEK, Ă  l’approche du Grand Prix des Pays-Bas, des cybercriminels exploitent l’essor numĂ©rique de la Formula 1 pour cibler Ă©quipes, dirigeants et fans, provoquant des pertes financiĂšres documentĂ©es dĂ©passant ÂŁ1 million. Le rapport dĂ©taille des menaces avancĂ©es allant des deepfakes d’exĂ©cutifs Ă  la compromission de la chaĂźne d’approvisionnement cloud. Principales menaces et cibles đŸŽïž Impersonation via deepfakes (audio/vidĂ©o) de dirigeants d’écuries. Applications mobiles “fantĂŽmes” avec icĂŽne cachĂ©e installant des malwares persistants đŸ“±. Fraudes sur les packages hospitality et cryptomonnaies, visant les fans. Vol de donnĂ©es de tĂ©lĂ©mĂ©trie (300+ capteurs par voiture) et brouillage RF des communications. Harvesting de tokens d’API et compromissions de la supply chain ciblant l’infrastructure cloud. Vecteurs techniques et dĂ©tection 🔍 ...

31 aoĂ»t 2025 Â· 2 min

Le Danemark propose une loi pour protéger contre les deepfakes

Selon un article publiĂ© par The Guardian, le gouvernement danois prĂ©voit de modifier la lĂ©gislation sur le droit d’auteur pour protĂ©ger les citoyens contre la crĂ©ation et la diffusion de deepfakes. Cette initiative vise Ă  garantir que chacun ait le droit Ă  son propre corps, ses traits faciaux et sa voix. Le ministre de la Culture danois, Jakob Engel-Schmidt, a annoncĂ© que le projet de loi, soutenu par une large majoritĂ© parlementaire, sera soumis Ă  consultation avant la pause estivale et prĂ©sentĂ© Ă  l’automne. Le ministre espĂšre que cette lĂ©gislation enverra un message clair sur le droit Ă  l’intĂ©gritĂ© personnelle face aux avancĂ©es rapides de la technologie de l’IA gĂ©nĂ©rative. ...

27 juin 2025 Â· 1 min

BlueNoroff utilise des deepfakes pour infiltrer les entreprises via des appels Zoom

Selon un article de BleepingComputer, le groupe de menace persistante avancĂ©e (APT) nord-corĂ©en connu sous le nom de BlueNoroff (Ă©galement appelĂ© ‘Sapphire Sleet’ ou ‘TA444’) a mis en place une nouvelle stratĂ©gie d’attaque utilisant des deepfakes de dirigeants d’entreprises lors de faux appels Zoom pour tromper les employĂ©s. BlueNoroff exploite ces deepfakes pour se faire passer pour des cadres de haut niveau, incitant ainsi les employĂ©s Ă  installer des malwares personnalisĂ©s sur leurs ordinateurs. Cette technique sophistiquĂ©e permet au groupe de contourner les mesures de sĂ©curitĂ© traditionnelles en exploitant la confiance des employĂ©s envers leurs supĂ©rieurs hiĂ©rarchiques. ...

19 juin 2025 Â· 1 min

Arnaques par phishing via publicités Instagram ciblant les Canadiens

Selon un article de Bleeping Computer, des publicitĂ©s Instagram se font passer pour des institutions financiĂšres telles que la Bank of Montreal (BMO) et EQ Bank (Equitable Bank) afin de piĂ©ger les consommateurs canadiens avec des arnaques de phishing et des fraudes Ă  l’investissement. Certaines de ces publicitĂ©s utilisent des vidĂ©os deepfake alimentĂ©es par l’IA pour tenter de rĂ©colter des informations personnelles des utilisateurs. D’autres redirigent le trafic vers des pages de phishing, visant Ă  tromper les victimes en leur faisant croire qu’elles interagissent avec des sites lĂ©gitimes. ...

18 juin 2025 Â· 1 min

L'impact croissant de l'IA sur les cyberattaques

L’article publiĂ© par l’UnitĂ© 42 de Palo Alto Networks met en lumiĂšre l’évolution rapide des stratĂ©gies d’attaque des acteurs malveillants grĂące Ă  l’intĂ©gration de l’intelligence artificielle (IA). Cette Ă©volution modifie fondamentalement la vitesse, l’échelle et la sophistication des cyberattaques, dĂ©passant les mĂ©thodes traditionnelles de dĂ©tection et de rĂ©ponse. Selon le rapport Global Incident Response 2025 de Unit 42, l’un des changements les plus alarmants est la rĂ©duction drastique du temps moyen d’exfiltration des donnĂ©es (MTTE), qui est passĂ© de neuf jours en 2021 Ă  seulement deux jours en 2024. Dans 20 % des cas, l’exfiltration se produit en moins d’une heure, dĂ©montrant l’efficacitĂ© accrue des attaques alimentĂ©es par l’IA. ...

21 mai 2025 Â· 2 min
Derniùre mise à jour le: 11 Dec 2025 📝