Une étude américaine menée par des universités renommées et DeepMind de Google a mis en évidence une vulnérabilité inquiétante dans ChatGPT.
Cette situation souligne une faille de sécurité majeure dans cette plateforme d’IA populaire.
ChatGPT, largement utilisé au quotidien, a été l’objet d’une étude américaine révélant une faille de sécurité majeure. Des chercheurs ont réussi à contraindre l’IA à divulguer des informations personnelles pour 200 dollars, mettant en lumière un risque potentiel pour les utilisateurs de la plateforme.
Les universités de Washington, de Berkeley, de Cornell, en collaboration avec DeepMind de Google, ont entrepris une étude sur la sécurité de ChatGPT. À leur grande surprise, une attaque combinée a démontré que la plateforme pouvait être compromise avec un budget limité. La méthode utilisée était étonnamment simple : demander à ChatGPT de répéter des mots en boucle.
L’étude a révélé que le problème n’était pas isolé, mais plutôt fréquent. Avec un budget de 200 dollars, les chercheurs ont extrait plus de 10 000 exemples uniques de données personnelles, dont près de 17% comprenaient des informations sensibles. Des données telles que des messages de remerciement, des signatures de mails, voire des adresses complètes ont été exposées, soulignant l’ampleur du problème de sécurité.
Les données extraites ne concernent actuellement que celles utilisées pour l’entraînement de l’IA, mais cela soulève des préoccupations sérieuses quant à la sécurité des utilisateurs. Avec la possibilité de révéler des informations sensibles, cette faille doit être traitée de manière urgente pour assurer la confidentialité des utilisateurs de ChatGPT.