Plus de 100 000 comptes ChatGPT ont été piratés et mis en vente sur le Dark Web, ce qui soulève des préoccupations quant à l’accès à des données sensibles et à leur utilisation malveillante.
Dans un communiqué publié sur leur site, Group-IB, une entreprise spécialisée dans la cybersécurité, a révélé avoir détecté 101 134 comptes OpenAI compromis et mis en vente sur le Dark Web entre juin 2022 et mai 2023. Selon le groupe, le nombre de piratages a atteint un pic en mai 2023, avec 26 802 comptes affectés.
Les pirates utilisent des logiciels malveillants appelés "info stealers" pour attaquer les comptes, collectant ainsi les informations enregistrées dans les navigateurs (identifiants, détails des cartes bancaires, cookies, historique de navigation, etc.) ou provenant des messageries et des e-mails, qu’ils transmettent ensuite à l’opérateur du logiciel malveillant. Group-IB précise que la majorité des comptes ChatGPT compromis (78 348) ont été piratés à l’aide de l’"info stealer Raccoon".
Parmi les régions du monde les plus touchées par ces piratages, on retrouve l’Asie-Pacifique, avec plus de 40 000 comptes affectés, dont 12 632 uniquement en Inde, ainsi que l’Afrique et le Moyen-Orient (24 625) et l’Europe (16 951). La France figure également parmi les pays les plus ciblés, avec 2 923 comptes compromis selon la plateforme.
Selon Group-IB, ces piratages représentent un risque majeur pour les données des entreprises, car de plus en plus de professionnels utilisent le chatbot dans le cadre de leur travail. Par défaut, ChatGPT conserve l’historique des requêtes des utilisateurs, exposant ainsi les organisations à la divulgation de données potentiellement sensibles, qui pourraient être exploitées pour des attaques ciblées à leur encontre, comme l’explique Dmitry Shestakov, responsable du renseignement sur les menaces chez Group-IB. "De nombreuses entreprises intègrent ChatGPT dans leur flux opérationnel. Les employés saisissent des correspondances classifiées ou utilisent le robot pour optimiser le code propriétaire. Étant donné que la configuration standard de ChatGPT conserve toutes les conversations, cela pourrait offrir par inadvertance un trésor de renseignements sensibles aux acteurs de la menace s’ils obtiennent les informations d’identification du compte", précse le responsable.
Pour réduire les risques, Group-IB recommande de mettre à jour régulièrement les mots de passe et d’activer l’authentification à deux facteurs (2FA). Pour une sécurité accrue, il est également conseillé de désactiver l’historique des conversations avec le chatbot. Les données seront alors supprimées après 30 jours.