SimpleStealth : un faux Grok pour macOS avec code généré par IA déploie un mineur Monero

Selon 9to5Mac, Mosyle a partagé en exclusivité la découverte de « SimpleStealth », une campagne de malware macOS qui intègre du code provenant de modèles d’IA générative — une première observée « dans la nature ». Au moment de l’analyse, la menace n’était détectée par aucun des principaux antivirus. La diffusion s’appuie sur un site factice imitant l’application d’IA populaire Grok, hébergé sur un domaine ressemblant à l’original. Les victimes téléchargent un installateur macOS nommé « Grok.dmg ». Une fois lancé, l’utilisateur voit une app qui semble pleinement fonctionnelle et fidèle au vrai Grok, tandis que les activités malveillantes s’exécutent discrètement en arrière-plan. ...

14 janvier 2026 · 2 min

NewsGuard: l’opération d’influence russe Storm‑1516 dépasse RT/Sputnik dans la diffusion de fausses allégations sur l’Ukraine

Selon NewsGuard Reality Check, une analyse de sa base de données de plus de 400 fausses allégations liées à la guerre Russie‑Ukraine montre qu’en 2025, l’opération d’influence russe Storm‑1516 est devenue la source la plus prolifique de contenus mensongers, devant les médias d’État RT et Sputnik. NewsGuard indique que Storm‑1516 a généré et propagé 24 fausses allégations en 2025 (44 depuis 2023), contre 15 pour RT et Sputnik combinés. L’opération affiche une croissance rapide: 6 fausses allégations (août 2023–jan. 2024), 14 (fév. 2024–jan. 2025), puis 24 (fév.–mi‑déc. 2025). Au total, NewsGuard a recensé plus de 400 fausses affirmations sur la guerre, issues de diverses opérations d’influence russes. ...

26 décembre 2025 · 3 min

Un réseau d’extorsion cible des PME suisses via de faux avis Google Maps

Selon RTS (adaptation d’une enquête de SRF), un réseau d’extorsion exploite Google Maps pour faire chanter des PME en Suisse, avec des faux avis négatifs publiés en rafale puis des demandes de rançon via WhatsApp. Un schéma d’attaque décrit: une avalanche d’« avis » négatifs et de mauvaises notes sur Google Maps, souvent en anglais et émis par des comptes manifestement faux. Peu après, les victimes reçoivent sur WhatsApp un chantage demandant entre 100 et 200 CHF pour retirer ces contenus. Un cas concret est détaillé: l’atelier de carrosserie « Dent Blanche » (Soleure) a vu des avis disparaître après signalement, puis réapparaître, rendant un nouveau signalement impossible. ...

21 décembre 2025 · 2 min

Des extensions Urban VPN exfiltrent et vendent des conversations d’IA de 8 millions d’utilisateurs

Selon une publication de recherche de Koi (blog Koi.ai) datée du 16 décembre 2025, des extensions populaires marquées comme mises en avant sur les stores Chrome et Edge interceptent et exfiltrent des conversations d’IA à grande échelle. 🔍 Découverte et portée Koi, via son moteur de risque Wings, a identifié Urban VPN Proxy (plus de 6 M d’utilisateurs, badge Featured) comme collectant par défaut les conversations sur plusieurs plateformes d’IA, dont ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, DeepSeek, Grok (xAI), Meta AI. La même logique de collecte apparaît dans sept autres extensions du même éditeur, totalisant plus de 8 millions d’utilisateurs. ...

16 décembre 2025 · 3 min

AMOS Stealer sur macOS livré via conversations ChatGPT/Grok empoisonnées (SEO/IA)

Source et contexte: Huntress (blog, 9 décembre 2025) analyse un incident triagé le 5 décembre 2025 impliquant l’infostealer macOS AMOS livré via des résultats Google menant à de vraies conversations partagées sur ChatGPT et Grok, empoisonnées pour insérer une commande Terminal malveillante. • Chaîne d’infection: un utilisateur cherche « clear disk space on macOS », clique un résultat de conversation ChatGPT/Grok légitime et copie/colle une commande Terminal présentée comme « sûre ». Cette commande contient une URL encodée en base64 vers un script bash qui déclenche une infection multi‑étapes. Aucune alerte Gatekeeper, aucun téléchargement manuel apparent: initial access par empoisonnement SEO/IA et copier-coller dans le Terminal. ...

12 décembre 2025 · 3 min

Fraude aux entités synthétiques : l’IA et des contrôles étatiques faibles dopent la création d’entreprises factices

Selon Information Security Media Group (ISMG), dans une interview vidéo avec Andrew La Marca (Dun & Bradstreet), la fraude aux entités synthétiques est passée d’une menace de niche à un risque majeur, portée par des outils d’IA et des contrôles étatiques faibles sur l’enregistrement des entreprises. La Marca explique que des fraudeurs peuvent créer des entreprises factices pour moins de 150 $, avec des payouts potentiels > 100 000 $ par identité falsifiée. Le phénomène s’accélère et se généralise, impactant l’écosystème financier et les acteurs du crédit. ...

10 décembre 2025 · 2 min

TikTok inondé par des « Agentic AI Accounts »: 4,5 Md de vues, IA peu labellisée et modération lacunaire

Source: AI Forensics (rapport 2025, données collectées via TikTok entre le 13 août et le 13 septembre 2025, analyses finalisées jusqu’en octobre 2025). AI Forensics (AIF) analyse 383 puis surveille 354 « Agentic AI Accounts » (AAAs) sur TikTok, des comptes qui automatisent la production et le test de contenus via des outils d’IA générative pour maximiser la viralité. Ces AAAs ont publié 43 798 contenus en plus de 20 langues, cumulé plus de 4,5 milliards de vues, et 65,1% ont été créés en 2025. Les AAAs postent massivement (jusqu’à 70 posts/jour, moyenne pouvant atteindre 11/jour) et 78,5% étaient dès l’origine des comptes 100% IA. ...

4 décembre 2025 · 3 min

Vers l’indéterminisme : IA générative, « weird machines » et limites de la confiance logicielle

Source : IEEE Security & Privacy (rubrique Last Word, septembre/octobre 2025). Daniel E. Geer, Jr. explore l’idée que la sécurité logicielle entre dans une « ère d’indéterminisme », amplifiée par la complexité des systèmes, les weird machines et l’essor du code généré par IA. L’auteur rappelle que les vulnérabilités se concentrent aux interfaces et que la sécurité n’est pas une propriété composable. En s’appuyant sur les travaux de Bratus et Shubina, il décrit les exploits comme des programmes exploitant des « machines plus riches » émergentes, révélées lorsque les hypothèses des concepteurs sont violées. Des chaînes d’exploitation d’une « complexité impossible » seraient déjà observées, dépassant les approches classiques comme le fuzzing. ...

18 novembre 2025 · 2 min

GTIG alerte sur des malwares « just-in-time » propulsés par IA et l’industrialisation des outils illicites en 2025

Source et contexte — Google Threat Intelligence Group (GTIG), novembre 2025: ce rapport met à jour l’analyse de janvier 2025 sur la « mauvaise utilisation des IA génératives » et documente l’intégration active d’IA dans des opérations réelles, depuis la reconnaissance jusqu’à l’exfiltration. • Points clés: GTIG rapporte les premiers cas de malwares utilisant des LLM en cours d’exécution (« just-in-time »), l’usage de prétextes de type ingénierie sociale pour contourner les garde-fous, la montée d’un marché cybercriminel d’outils IA multifonctions, et l’emploi d’IA par des acteurs étatiques (Chine, Iran, Corée du Nord, Russie) sur l’ensemble du cycle d’attaque. ...

7 novembre 2025 · 4 min

Des algorithmes génératifs détectent des failles dans les systèmes de biosécurité

Selon l’article, le chief scientist de Microsoft, Eric Horvitz, a conduit un expériment visant à évaluer si des algorithmes d’IA générative peuvent identifier des failles dans les systèmes de biosécurité. L’étude démontre que des algorithmes génératifs sont capables de mettre au jour des vulnérabilités inconnues au sein de dispositifs de contrôle de biosécurité conçus pour empêcher la synthèse d’agents toxiques ou pathogènes. 🧬🤖 Le cœur du constat: ces modèles peuvent aider à révéler des points faibles dans les mécanismes de filtrage et de vérification utilisés avant la synthèse de séquences potentiellement dangereuses, remettant en question l’efficacité et la robustesse des contrôles existants. ⚠️ ...

8 octobre 2025 · 1 min
Dernière mise à jour le: 26 Feb 2026 📝