OpenAI pourra signaler à la police des conversations jugées menaçantes sur ChatGPT

Source: Futurism (Noor Al-Sibai) rapporte qu’OpenAI a détaillé dans un billet de blog une nouvelle politique de modération concernant ChatGPT, incluant la possibilité de référer certaines conversations aux forces de l’ordre. OpenAI indique qu’il scanne les messages pour des contenus « nocifs », qu’il escalade les cas préoccupants à une équipe humaine et qu’en cas de menace imminente de dommages physiques envers autrui, ces cas peuvent être signalés à la police 🚔. Les comptes concernés peuvent aussi être bannis. ...

31 août 2025 · 2 min

OpenAI retire une fonctionnalité de ChatGPT après des inquiétudes sur la confidentialité

Selon VentureBeat, OpenAI a pris la décision de retirer une fonctionnalité de ChatGPT qui permettait aux utilisateurs de rendre leurs conversations accessibles via des moteurs de recherche comme Google. Cette décision a été prise rapidement après une vague de critiques sur les réseaux sociaux concernant la confidentialité des données. La fonctionnalité, décrite par OpenAI comme une “expérience de courte durée”, nécessitait que les utilisateurs optent activement pour partager leurs conversations en cochant une case spécifique. Cependant, cette option a été retirée en raison des risques élevés de partage involontaire de données personnelles. ...

4 août 2025 · 1 min

Vulnérabilité critique dans ChatGPT permettant l'exfiltration de données

L’article publié par embracethered.com met en lumière une vulnérabilité critique dans ChatGPT, un produit d’OpenAI, qui permet à des attaquants d’exfiltrer l’historique des conversations des utilisateurs par le biais d’attaques par injection de commandes. Les chercheurs ont découvert que l’exploitation de cette faille repose sur un contournement de la fonctionnalité de rendu ‘URL sûre’ d’OpenAI. Ce contournement permet aux acteurs malveillants d’envoyer des informations personnelles vers des serveurs tiers en utilisant des domaines comme windows.net. ...

2 août 2025 · 1 min

Découverte d'une vulnérabilité zero-day dans le noyau Linux grâce à un modèle LLM

Dans un article publié par Sean Heelan, un chercheur en sécurité a révélé la découverte d’une vulnérabilité zero-day dans le noyau Linux en utilisant le modèle OpenAI o3. Cette découverte met en lumière les capacités avancées des modèles de langage pour l’analyse de code. Le chercheur a examiné le composant ksmbd, un serveur du noyau Linux implémentant le protocole SMB3, pour des vulnérabilités. Lors de ses tests, le modèle o3 a identifié la vulnérabilité CVE-2025-37899, un use-after-free dans le gestionnaire de la commande SMB ’logoff’. Cette faille nécessite de comprendre la gestion des connexions concurrentes au serveur et la manière dont elles partagent des objets. ...

26 mai 2025 · 1 min
Dernière mise à jour le: 3 Sep 2025 📝