L’intelligence artificielle, nouvel outil des récits toxiques du Kremlin
L’intelligence artificielle, nouvel outil des récits toxiques du Kremlin

L’intelligence artificielle, nouvel outil des récits toxiques du Kremlin

30.10.2025 10:30
1 min de lecture

Selon une enquête de l’Institut pour le dialogue stratégique (ISD), les grands modèles d’intelligence artificielle comme ChatGPT, Grok, DeepSeek et Gemini s’appuient régulièrement sur des contenus issus de médias russes sanctionnés dans l’Union européenne pour répondre à des questions sur la guerre en Ukraine. L’étude révèle que ces systèmes contournent indirectement les blocages européens, exploitant des lacunes dans les bases de données des moteurs de recherche.

Des réponses biaisées selon la formulation des questions

Entre juillet et octobre, les chercheurs du département de sécurité de l’information de l’ISD ont soumis 60 questions à chaque chatbot, en cinq langues. Les thèmes abordaient les pourparlers de paix, le rôle de l’OTAN, la mobilisation en Ukraine ou les crimes de guerre russes. Les résultats montrent que 18 % des réponses contenaient des liens vers des sources russes ou prorégime telles que Sputnik, RT ou EADaily. ChatGPT a le plus souvent relayé ces sources, tandis que Grok a utilisé des publications de blogueurs prorusses sur les réseaux sociaux. Gemini, en revanche, a mieux signalé les sources liées au Kremlin.

Une faille structurelle exploitée par Moscou

L’étude démontre que les modèles d’IA puisent dans des sites sanctionnés lorsque leurs ensembles de données manquent de sources fiables. Les questions formulées de manière biaisée ou demandant des preuves concrètes augmentent fortement la probabilité d’obtenir une réponse issue d’un média prorusse. Cette vulnérabilité crée un effet de diffusion lente, exposant des millions d’utilisateurs européens à des contenus de désinformation, même sous une apparence neutre.

Risque pour le débat public européen

L’ISD avertit que cette infiltration numérique mine progressivement la confiance du public dans la politique européenne envers l’Ukraine. Certains blogs et portails, présentés comme « alternatifs », propagent en réalité des récits alignés sur Moscou. L’absence de filtrage cohérent des sources fragilise la souveraineté informationnelle de l’UE et brouille les repères factuels des citoyens.

Vers un encadrement plus strict de l’IA

Les experts recommandent la mise en place de filtres obligatoires basés sur les listes de sanctions de l’UE, ainsi que des audits indépendants ciblant les sujets sensibles comme la guerre ou les élections. Les fournisseurs d’IA devraient aussi signaler clairement l’origine de leurs sources et expliquer leurs choix de citation. Sans de telles mesures, préviennent les chercheurs, le Kremlin continuera d’injecter ses narratifs anti-européens et anti-ukrainiens sous couvert de neutralité algorithmique.

Laisser un commentaire

Your email address will not be published.

Dernières nouvelles

À NE PAS MANQUER