Fraude aux entités synthétiques : l’IA et des contrôles étatiques faibles dopent la création d’entreprises factices

Selon Information Security Media Group (ISMG), dans une interview vidéo avec Andrew La Marca (Dun & Bradstreet), la fraude aux entités synthétiques est passée d’une menace de niche à un risque majeur, portée par des outils d’IA et des contrôles étatiques faibles sur l’enregistrement des entreprises. La Marca explique que des fraudeurs peuvent créer des entreprises factices pour moins de 150 $, avec des payouts potentiels > 100 000 $ par identité falsifiée. Le phénomène s’accélère et se généralise, impactant l’écosystème financier et les acteurs du crédit. ...

10 décembre 2025 · 2 min

TikTok inondé par des « Agentic AI Accounts »: 4,5 Md de vues, IA peu labellisée et modération lacunaire

Source: AI Forensics (rapport 2025, données collectées via TikTok entre le 13 août et le 13 septembre 2025, analyses finalisées jusqu’en octobre 2025). AI Forensics (AIF) analyse 383 puis surveille 354 « Agentic AI Accounts » (AAAs) sur TikTok, des comptes qui automatisent la production et le test de contenus via des outils d’IA générative pour maximiser la viralité. Ces AAAs ont publié 43 798 contenus en plus de 20 langues, cumulé plus de 4,5 milliards de vues, et 65,1% ont été créés en 2025. Les AAAs postent massivement (jusqu’à 70 posts/jour, moyenne pouvant atteindre 11/jour) et 78,5% étaient dès l’origine des comptes 100% IA. ...

4 décembre 2025 · 3 min

Vers l’indéterminisme : IA générative, « weird machines » et limites de la confiance logicielle

Source : IEEE Security & Privacy (rubrique Last Word, septembre/octobre 2025). Daniel E. Geer, Jr. explore l’idée que la sécurité logicielle entre dans une « ère d’indéterminisme », amplifiée par la complexité des systèmes, les weird machines et l’essor du code généré par IA. L’auteur rappelle que les vulnérabilités se concentrent aux interfaces et que la sécurité n’est pas une propriété composable. En s’appuyant sur les travaux de Bratus et Shubina, il décrit les exploits comme des programmes exploitant des « machines plus riches » émergentes, révélées lorsque les hypothèses des concepteurs sont violées. Des chaînes d’exploitation d’une « complexité impossible » seraient déjà observées, dépassant les approches classiques comme le fuzzing. ...

18 novembre 2025 · 2 min

GTIG alerte sur des malwares « just-in-time » propulsés par IA et l’industrialisation des outils illicites en 2025

Source et contexte — Google Threat Intelligence Group (GTIG), novembre 2025: ce rapport met à jour l’analyse de janvier 2025 sur la « mauvaise utilisation des IA génératives » et documente l’intégration active d’IA dans des opérations réelles, depuis la reconnaissance jusqu’à l’exfiltration. • Points clés: GTIG rapporte les premiers cas de malwares utilisant des LLM en cours d’exécution (« just-in-time »), l’usage de prétextes de type ingénierie sociale pour contourner les garde-fous, la montée d’un marché cybercriminel d’outils IA multifonctions, et l’emploi d’IA par des acteurs étatiques (Chine, Iran, Corée du Nord, Russie) sur l’ensemble du cycle d’attaque. ...

7 novembre 2025 · 4 min

Des algorithmes génératifs détectent des failles dans les systèmes de biosécurité

Selon l’article, le chief scientist de Microsoft, Eric Horvitz, a conduit un expériment visant à évaluer si des algorithmes d’IA générative peuvent identifier des failles dans les systèmes de biosécurité. L’étude démontre que des algorithmes génératifs sont capables de mettre au jour des vulnérabilités inconnues au sein de dispositifs de contrôle de biosécurité conçus pour empêcher la synthèse d’agents toxiques ou pathogènes. 🧬🤖 Le cœur du constat: ces modèles peuvent aider à révéler des points faibles dans les mécanismes de filtrage et de vérification utilisés avant la synthèse de séquences potentiellement dangereuses, remettant en question l’efficacité et la robustesse des contrôles existants. ⚠️ ...

8 octobre 2025 · 1 min

Phishing obfusqué par IA via SVG détecté et bloqué par Microsoft

Source: Microsoft Threat Intelligence (blog Microsoft Security). Contexte: Microsoft décrit l’analyse et le blocage d’une campagne de phishing par identifiants qui aurait utilisé du code généré par IA pour obfusquer un payload dans un fichier SVG et contourner des défenses classiques. • Nature de l’attaque: phishing d’identifiants distribué depuis un compte e-mail de petite entreprise compromis, avec tactique d’e-mail auto-adressé (expéditeur = destinataire, cibles en BCC) et piège SVG déguisé en PDF. Le SVG redirigeait vers une page avec faux CAPTCHA, vraisemblablement suivi d’une fausse page de connexion pour voler des identifiants. 🎯 ...

26 septembre 2025 · 2 min

Enquête Reuters: des chatbots d’IA contournent les garde-fous et génèrent des emails de phishing ciblant les seniors

Source: Reuters — En collaboration avec le chercheur de Harvard Fred Heiding, Reuters a mené une enquête et une simulation de phishing visant des seniors aux États-Unis afin d’évaluer dans quelle mesure des chatbots d’IA peuvent aider à planifier et exécuter des arnaques convaincantes. • L’équipe a testé la propension de six grands assistants (dont Grok, ChatGPT, Meta AI, Claude, Gemini et DeepSeek) à contourner leurs garde-fous pour produire des emails frauduleux. Malgré des refus initiaux, de simples prétextes (recherche académique, écriture de roman) ont souvent suffi à les faire coopérer. Dans une expérimentation sur 108 volontaires seniors, 9 emails générés via cinq bots ont été envoyés: environ 11% des destinataires ont cliqué. Cinq des neuf messages ont généré des clics (2 par Meta AI, 2 par Grok, 1 par Claude); aucun clic n’a été enregistré pour les emails issus de ChatGPT ou DeepSeek. L’étude ne visait pas à comparer les bots entre eux. ...

22 septembre 2025 · 3 min

RRM Canada signale une opération de « hack-and-leak » d’Handala visant des journalistes d’Iran International

Selon Global Affairs Canada (Rapid Response Mechanism Canada), note du 12 septembre 2025, une opération de hack-and-leak attribuée au groupe lié à l’Iran Handala Hack Team a visé cinq journalistes d’Iran International, dont un basé au Canada. L’activité aurait démarré le 8 juillet 2025. Les auteurs ont publié des photos de pièces d’identité officielles (passeports, cartes de résident permanent, permis de conduire), des mots de passe d’adresses e‑mail ainsi que des photos/vidéos intimes. La fuite a d’abord été mise en ligne sur le site de Handala puis relayée via Telegram, X, Facebook, Instagram et des sites d’actualités iraniens. RRM Canada a détecté l’opération le 9 juillet 2025 après une diffusion initiale sur un canal Telegram associé, puis de nouvelles publications le 11 juillet 2025 ciblant notamment un résident canadien. ...

17 septembre 2025 · 2 min

TikTok détaille les démantèlements de réseaux d’influence clandestins (2024–juil. 2025)

Selon la page « Covert Influence Operations » du site Transparency de TikTok, la plateforme recense et divulgue régulièrement les réseaux d’opérations d’influence clandestines qu’elle a détectés et démantelés depuis janvier 2024, en détaillant l’origine supposée, les audiences ciblées, le nombre de comptes et les méthodes employées. 📊 Entre juillet 2025 et janvier 2025, TikTok documente de multiples réseaux: en juillet 2025, des opérations depuis la Thaïlande visant des sinophones avec du contenu généré par IA (souvent des personnages animaliers) pour vanter la domination chinoise et critiquer l’Occident; deux réseaux opérant depuis l’Ukraine visant un public russe pour miner la confiance envers le gouvernement russe et souligner des défaites militaires, parfois en se présentant comme des comptes d’actualités; un réseau depuis l’Iran ciblant Israël/Palestine via sock puppets et faux comptes d’actualité; un réseau depuis la Biélorussie se faisant passer pour un groupe partisan en Ukraine, redirigeant vers une messagerie hors plateforme; un autre depuis l’Iran visant l’Azerbaïdjan pour promouvoir des narratifs pro-iraniens et chiites. TikTok indique aussi une application continue contre la récidive (ex. 5 374 comptes tentant de revenir en juillet 2025). ...

16 septembre 2025 · 3 min

DFRLab révèle une opération d’influence pro‑russe multi‑plateformes visant les élections roumaines et accusant Maia Sandu

Source et contexte — Digital Forensic Research Lab (DFRLab): Le rapport détaille une opération en ligne active depuis décembre 2024, impliquant au moins 215 comptes multi‑plateformes diffusant des contenus pro‑russes, anti‑UE et anti‑PAS, accusant la présidente moldave Maia Sandu d’ingérence dans les élections présidentielles roumaines. L’opération s’inscrit dans un contexte électoral tendu en Roumanie (annulation du scrutin 2024 pour ingérence russe crédible, nouveau scrutin en mai 2025). Portée et cibles 🔎: Le réseau a d’abord soutenu Călin Georgescu (extrême droite), puis a pivoté vers George Simion après l’interdiction de Georgescu en 2025 (ce dernier sous enquête pénale). Il a amplifié des attaques contre PAS (parti de Sandu) et l’UE, tout en relayant des accusations d’ingérence de Sandu et des allégations publiées par Pavel Durov (Telegram) au sujet d’une prétendue pression française — démentie par la DGSE. Des contenus visaient également le candidat pro‑européen Nicușor Dan, notamment après le soutien public de Sandu. ...

27 août 2025 · 4 min
Dernière mise à jour le: 14 avril 2026 📝