L’une des maximes du monde de l’IA est que si des déchets entrent, des déchets sortent. Autrement dit, si vous entraînez une intelligence artificielle avec des mensonges ou des données d’origine douteuse, le contenu qu’elle générera reproduira ces mêmes schémas. Et il en va de même pour les sources Web sur lesquelles se basent les réponses. Cette réalité est devenue claire après une enquête du journal Tuteurqui a découvert que le dernier modèle ChatGPT, GPT-5.2, a commencé à utiliser Grokipédia comme source d’autorité pour répondre aux requêtes des utilisateurs.
Grokipedia, l’encyclopédie en ligne générée par l’IA et lancée par Elon Musk en octobre dernier, a été critiquée pour avoir propagé des récits controversés et pour son manque d’édition directe par l’homme. Lors des tests, ChatGPT a cité cette source neuf fois en répondant à des sujets sensibles, notamment les structures politiques en Iran et les biographies liées aux négationnistes de l’Holocauste. Par exemple, le chatbot a reproduit des déclarations de Grokipedia sur l’historien Sir Richard Evans, que le journal britannique lui-même avait précédemment niées.
Le danger d’une désinformation subtile
Le plus inquiétant n’est pas que l’IA hallucine, mais que valider les modèles indésirables. L’analyse a montré que ChatGPT n’a pas cité Grokipedia sur des sujets où la désinformation est évidente et facile à filtrer, comme l’insurrection du 6 janvier aux États-Unis. Cependant, des informations provenant de l’encyclopédie de Musk ont été divulguées sur des sujets plus obscurs ou spécifiques, où les filtres de sécurité sont plus laxistes. Cela crée un cercle vicieux de validation : si ChatGPT cite Grokipedia, l’utilisateur peut supposer à tort qu’il s’agit d’une source vérifiée et fiable.
Les experts en sécurité mettent en garde contre le phénomène de Toilettage LLMoù les acteurs malveillants génèrent d’énormes volumes de désinformation pour que les chatbots absorbent ces mensonges lors de leur formation ou de leur recherche sur le Web. La chercheuse en désinformation Nina Jankowicz souligne que Grokipedia s’appuie souvent sur des sources peu fiables et que son inclusion dans les réponses ChatGPT légitime ces préjugés.
Alors qu’OpenAI défend que son moteur de recherche tente d’extraire des données d’un large éventail de sources et qu’il applique des filtres de sécurité, la réponse de xAI, propriétaire de Grokipedia, à la controverse a été directe et brève : « Les médias traditionnels mentent ».