Selon une récente étude menée par NewsGuard, la fiabilité des chatbots comme sources d’information est mise en doute.
Une étude récente de NewsGuard révèle que ChatGPT et Bard diffusent abondamment de ’fake news’. Selon les informations rapportées par Les Echos, deux tests menés en mars et en août 2023 ont consisté à générer des textes à partir d’informations erronées. Les résultats indiquent que, sur cinq mois, les IA ont montré une faible voire inexistante amélioration en termes de désinformation.
En mars, ChatGPT-4 a produit des textes intégrant des fausses informations dans 100 % des cas, tandis que Bard atteignait 76 %. En août, les chiffres ont légèrement diminué, à 98 % pour ChatGPT-4 et 80 % pour Bard. À aucun moment, les informations utilisées pour les tests n’ont été vérifiées, rapporte le site 20minutes.fr.
Ce qui est encore plus préoccupant, c’est que ces IA peuvent générer des textes qui pourraient être crédibles dans des médias. Les experts de NewsGuard soulignent que ChatGPT-4 et Bard ont produit des "articles ou des posts de blog si convaincants pour certains sujets que l’on pourrait s’attendre à les lire sur des plateformes majeures de désinformation."
Bien que Bard fournisse occasionnellement ses sources, ChatGPT se montre plus "persuasif et sournois." Aucun des deux chatbots ne différencie les sources fiables des sources douteuses, laissant la porte ouverte aux sites conspirationnistes. En Russie, des médias d’État ont cité ces chatbots comme sources légitimes, affirmant que les États-Unis soutenaient un "coup d’État en Ukraine".
> A lire également : ChatGPT : tout savoir sur cet outil d’intelligence artificielle