France : enquĂȘte judiciaire sur X (ex-Twitter) pour contenus illicites et IA gĂ©nĂ©rative

đŸ—“ïž Contexte Source : RFI, publiĂ© le 19 avril 2026. L’article couvre une procĂ©dure judiciaire française en cours visant la plateforme X (ex-Twitter) et ses dirigeants, dont Elon Musk et l’ancienne directrice gĂ©nĂ©rale Linda Yacarino. 📋 Faits principaux Une enquĂȘte pĂ©nale a Ă©tĂ© ouverte en juillet 2025 par le parquet de Paris, Ă  la suite de signalements effectuĂ©s dĂ©but 2025 par un dĂ©putĂ© et un responsable institutionnel. L’enquĂȘte, initialement centrĂ©e sur l’algorithme de X, a Ă©tĂ© Ă©largie Ă  7 infractions pĂ©nales : ...

19 avril 2026 Â· 2 min

Le Royaume-Uni menace d'emprisonnement les dirigeants tech refusant de retirer des images intimes non consenties

📰 Source : The Record Media — Date de publication : 10 avril 2026 đŸ›ïž Contexte rĂ©glementaire : Le gouvernement du Royaume-Uni a soumis formellement un amendement Ă  un projet de loi pĂ©nale visant Ă  responsabiliser personnellement les dirigeants de plateformes technologiques en cas de non-retrait d’images intimes non consenties (NCII — Non-Consensual Intimate Images). ⚖ Mesures annoncĂ©es : Les dirigeants tech pourraient ĂȘtre personnellement passibles d’emprisonnement ou d’amende, ou les deux, s’ils ne se conforment pas aux dĂ©cisions d’exĂ©cution d’Ofcom (rĂ©gulateur britannique des communications) En fĂ©vrier 2026, le Premier ministre Keir Starmer avait dĂ©jĂ  annoncĂ© une obligation de retrait sous 48 heures sous peine d’amendes et de blocage de services — l’emprisonnement constitue une escalade significative Ofcom a annoncĂ© une enquĂȘte sur les pratiques du chatbot Grok le 13 janvier 2026 đŸ€– Origine du scandale : Le chatbot Grok, propriĂ©tĂ© de xAI (Elon Musk), a Ă©tĂ© impliquĂ© dans la diffusion de millions d’images « nudifiĂ©es » de femmes et d’enfants Ă  l’échelle mondiale, dĂ©clenchant une condamnation internationale et des rĂ©ponses lĂ©gislatives de plusieurs gouvernements. ...

12 avril 2026 Â· 2 min

Allemagne : deepfakes sexuels et usurpation d'identité par IA pendant 10 ans

đŸ—“ïž Contexte Article publiĂ© le 27 mars 2026 sur Generation-NT, relatant une affaire de violences numĂ©riques de longue durĂ©e en Allemagne impliquant des technologies d’IA gĂ©nĂ©rative. 🎭 Faits principaux L’acteur Christian Ulmen a menĂ© pendant prĂšs de dix ans une campagne de harcĂšlement numĂ©rique contre son ex-femme, l’actrice Collien Fernandes. Le mode opĂ©ratoire comprenait : CrĂ©ation et diffusion de deepfakes (photos et vidĂ©os) Ă  caractĂšre sexuel Utilisation de logiciels de clonage vocal par IA pour simuler la voix de la victime lors de conversations tĂ©lĂ©phoniques CrĂ©ation de fausses adresses email et profils au nom de la victime pour contacter des hommes, y compris dans leur cercle professionnel Organisation de faux rendez-vous pour entretenir l’illusion d’une liaison Envoi d’un script dĂ©crivant une scĂšne de viol virtuel collectif Une des vidĂ©os manipulĂ©es a Ă©tĂ© vue plus de 270 000 fois. ...

29 mars 2026 Â· 2 min

Campagne de deepfakes pro-Kremlin: des vidéos Sora 2 simulent des redditions de soldats ukrainiens

Selon NewsGuard’s Reality Check (17 nov. 2025), des propagandistes pro-Kremlin exploitent l’outil texte‑vers‑vidĂ©o Sora 2 d’OpenAI pour fabriquer des vidĂ©os virales montrant de prĂ©tendues redditions de soldats ukrainiens, afin de saper le moral des forces ukrainiennes en pleine guerre Russie‑Ukraine. NewsGuard rappelle qu’un test rĂ©cent a montrĂ© que Sora 2 avançait des contre‑vĂ©ritĂ©s sur des sujets d’actualitĂ© dans 80 % des cas lorsqu’il y Ă©tait incitĂ©. đŸŽ„ En novembre 2025, NewsGuard a identifiĂ© sept vidĂ©os gĂ©nĂ©rĂ©es par IA prĂ©sentĂ©es comme des images du front Ă  Pokrovsk, une ville clĂ© de l’Est que des experts estiment proche de tomber. Ces vidĂ©os, cumulant des millions de vues sur X, TikTok, Facebook et Telegram, montrent des scĂšnes de redditions massives et des soldats ukrainiens implorant le pardon de la Russie. ...

19 novembre 2025 Â· 2 min

SecretDesires.ai expose prĂšs de 1,8 million d’images/vidĂ©os via des conteneurs Azure non sĂ©curisĂ©s

Selon 404 Media, la plateforme d’« erotic roleplay » et de gĂ©nĂ©ration d’images SecretDesires.ai a laissĂ© des conteneurs Microsoft Azure Blob non sĂ©curisĂ©s exposant prĂšs de 1,8 million de fichiers (images et vidĂ©os), avant de couper l’accĂšs aprĂšs notification par le mĂ©dia. 🔓 Incident et pĂ©rimĂštre de l’exposition Des liens vers des images/vidĂ©os Ă©taient accessibles publiquement via des conteneurs Azure non authentifiĂ©s, y compris des fichiers XML listant les URLs. Conteneurs concernĂ©s: « removed images » (~930 000 images), « faceswap » (~50 000 images) et « live photos » (~220 000 vidĂ©os), pour un total d’environ 1,8 million de fichiers (avec duplications possibles). AprĂšs l’alerte envoyĂ©e par 404 Media, les fichiers sont devenus inaccessibles. La sociĂ©tĂ© (Playhouse Media, CEO: Jack Simmons) n’a pas rĂ©pondu aux questions. 📩 Nature des donnĂ©es exposĂ©es et usages ...

19 novembre 2025 Â· 3 min

Suisse: Rapport semestriel NCSC 2025/I — menaces Ă©levĂ©es, hausse du ransomware et du phishing en temps rĂ©el

Source: National Cyber Security Centre (NCSC, Suisse) — Semi-Annual Report 2025/I (janvier–juin 2025). Le NCSC constate un volume d’incidents stabilisĂ© Ă  un niveau Ă©levĂ© (35 727 signalements, dont 58 % de fraude) et une situation globale relativement stable malgrĂ© l’innovation des attaquants. Les thĂšmes majeurs restent phishing, malware/ransomware, vulnĂ©rabilitĂ©s, fraude et ingĂ©nierie sociale, DDoS hacktiviste, fuites/exfiltration et cyberespionnage. Depuis le 1er avril 2025, le signalement obligatoire pour les infrastructures critiques est en vigueur. ...

19 novembre 2025 Â· 3 min

Deepfake-as-a-Service 2025 : clonage de voix et fraudes aux médias synthétiques frappent les entreprises

Source : Darknet.org.uk — L’article traite en 2025 du phĂ©nomĂšne « Deepfake-as-a-Service » et explique comment le clonage de voix et les mĂ©dias synthĂ©tiques affectent les entreprises. 🎭 Le contenu met en avant la montĂ©e des services de deepfake « prĂȘts Ă  l’emploi » et leur utilisation dans la fraude ciblant les organisations, en soulignant leur impact opĂ©rationnel et rĂ©putationnel. Les deepfakes ont quittĂ© le domaine expĂ©rimental pour devenir un modĂšle Ă©conomique criminel industrialisĂ©, baptisĂ© Deepfake-as-a-Service (DFaaS). Ces services permettent aujourd’hui Ă  n’importe quel acteur malveillant de louer des capacitĂ©s de clonage vocal ou vidĂ©o en temps rĂ©el pour mener des fraudes, manipulations sociales ou opĂ©rations d’espionnage Ă  grande Ă©chelle. ...

3 novembre 2025 Â· 3 min

La tendance « Nano Banana AI » crée une vaste base biométrique exploitable pour fraude et deepfakes

Selon PointWild (rĂ©fĂ©rence: pointwild.com), la tendance virale « Nano Banana AI » s’appuie sur l’outil Gemini 2.5 Flash Image de Google pour transformer des selfies en avatars 3D, crĂ©ant une base biomĂ©trique massive et volontairement fournie par les utilisateurs. Le flux « Nano Banana » capte des « empreintes » biomĂ©triques et techniques: gĂ©omĂ©trie faciale, donnĂ©es de device fingerprinting, coordonnĂ©es GPS et biomĂ©trie comportementale, en plus des images. Plus de 200 millions d’images auraient Ă©tĂ© gĂ©nĂ©rĂ©es Ă  l’échelle mondiale. ...

23 septembre 2025 Â· 2 min

F1: deepfakes, apps malveillantes et vols de télémétrie ciblent équipes, dirigeants et fans

Selon CloudSEK, Ă  l’approche du Grand Prix des Pays-Bas, des cybercriminels exploitent l’essor numĂ©rique de la Formula 1 pour cibler Ă©quipes, dirigeants et fans, provoquant des pertes financiĂšres documentĂ©es dĂ©passant ÂŁ1 million. Le rapport dĂ©taille des menaces avancĂ©es allant des deepfakes d’exĂ©cutifs Ă  la compromission de la chaĂźne d’approvisionnement cloud. Principales menaces et cibles đŸŽïž Impersonation via deepfakes (audio/vidĂ©o) de dirigeants d’écuries. Applications mobiles “fantĂŽmes” avec icĂŽne cachĂ©e installant des malwares persistants đŸ“±. Fraudes sur les packages hospitality et cryptomonnaies, visant les fans. Vol de donnĂ©es de tĂ©lĂ©mĂ©trie (300+ capteurs par voiture) et brouillage RF des communications. Harvesting de tokens d’API et compromissions de la supply chain ciblant l’infrastructure cloud. Vecteurs techniques et dĂ©tection 🔍 ...

31 aoĂ»t 2025 Â· 2 min

Le Danemark propose une loi pour protéger contre les deepfakes

Selon un article publiĂ© par The Guardian, le gouvernement danois prĂ©voit de modifier la lĂ©gislation sur le droit d’auteur pour protĂ©ger les citoyens contre la crĂ©ation et la diffusion de deepfakes. Cette initiative vise Ă  garantir que chacun ait le droit Ă  son propre corps, ses traits faciaux et sa voix. Le ministre de la Culture danois, Jakob Engel-Schmidt, a annoncĂ© que le projet de loi, soutenu par une large majoritĂ© parlementaire, sera soumis Ă  consultation avant la pause estivale et prĂ©sentĂ© Ă  l’automne. Le ministre espĂšre que cette lĂ©gislation enverra un message clair sur le droit Ă  l’intĂ©gritĂ© personnelle face aux avancĂ©es rapides de la technologie de l’IA gĂ©nĂ©rative. ...

27 juin 2025 Â· 1 min
Derniùre mise à jour le: 27 avril 2026 📝