La société basée en Californie va bientôt introduire un outil permettant de déterminer si une image a été générée à l’aide de son générateur d’images. Cette initiative vise à combattre la propagation de fausses informations, particulièrement décisive en période électorale.
Depuis un certain temps, les réseaux sociaux sont submergés par des images générées par l’intelligence artificielle : le pape en doudoune, ou encore Emmanuel Macron ramassant les poubelles. Cette prolifération pose un défi majeur en termes de diffusion de fausses informations, particulièrement pendant les périodes électorales. Avec l’avènement de DALL-E 3 et d’autres avancées technologiques, les images synthétiques deviennent de plus en plus indiscernables des clichés authentiques. Pour contrer cette tendance, OpenAI lance un outil capable de détecter les images produites par son générateur DALL-E 3, rapporte BFMTV. Selon l’entreprise californienne, cet outil est capable d’identifier correctement les images synthétiques dans 98% des cas lors de tests. De plus, il peut détecter les micro-changements tels que la compression, le recadrage et les modifications de saturation.
> À lire aussi : OpenAI annonce une nouvelle fonctionnalité pratique de ChatGPT
OpenAI lance cet outil pour contrer la désinformation, confirmant ainsi son engagement. En janvier, l’entreprise avait annoncé son intention de lutter contre les deepfakes avant les élections dans plusieurs pays, touchant près de la moitié de la population mondiale. DALL-E 3 intègre des mesures de sécurité pour éviter la création d’images de personnes réelles, notamment de candidats politiques. OpenAI prévoit également un outil pour vérifier l’origine des textes générés par ChatGPT. La startup a rejoint la Coalition pour la provenance et l’authenticité des contenus (C2PA) avec d’autres géants de la technologie, tandis que Google et Meta ont déjà initié des mesures similaires en 2023.
> Toute l’actu high-tech sur LINFO.re