Pédocriminalité : l’union européenne doit faire face au vide juridique des contenus d’abus d’enfants générés par l’intelligence artificielle

Pédocriminalité : l’union européenne doit faire face au vide juridique des contenus d’abus d’enfants générés par l’intelligence artificielle

29.09.2025 13:13
2 min de lecture

Pédocriminalité : l’impact croissant de l’intelligence artificielle soulève des inquiétudes juridiques

L’Internet Watch Foundation (IWF) a exprimé de vives inquiétudes concernant l’utilisation de l’intelligence artificielle pour produire des contenus pédo-criminels, mettant en lumière un vide juridique sur les images fictives impliquant des enfants, rapporte TopTribune.

Selon l’IWF, des agents conversationnels offrent aux prédateurs la possibilité de créer des scénarios d’abus intensément graphiques impliquant des enfants. L’émergence de l’IA dans les abus sexuels sur enfants représente une menace importante pour les organisations de défense de l’enfance. Actuellement, une directive européenne est en cours de négociation à Bruxelles pour aborder cette question, mais la nature fictive des images complique le débat juridique.

Les analystes de l’IWF ont découvert des contenus liés à des agents conversationnels générant des contenus pédocriminels. L’une des plateformes analysées semble initialement légitime, permettant aux utilisateurs de consulter des contenus légaux, mais dissimule en réalité un canal secret pour la diffusion d’images d’abus sexuels sur mineurs, entièrement produites par l’IA. Ces contenus présentent des scénarios d’une violence extrême.

Le site offre aux utilisateurs un temps d’interaction gratuit avant de proposer un abonnement payant pour un accès illimité. Des appels vocaux avec les chatbots sont annoncés comme étant « bientôt disponibles », indique l’IWF.

« Malheureusement, nous constatons que les avancées rapides de l’intelligence artificielle sont systématiquement exploitées par des criminels à des fins malveillantes », a déclaré Kerry Smith, Directrice générale de l’IWF, ajoutant que « toutes les formes d’abus sexuel d’enfants en ligne doivent être sanctionnées, peu importe leur mode de production ou leur diffusion ».

En juillet 2025, l’IWF avait précédemment recueilli près de 1 300 vidéos d’abus générées par IA, dont une majorité illustrait des viols et des tortures sexuelles.

Ces développements soulèvent des questions juridiques complexes. Peut-on criminaliser la consommation d’images horribles mais fictives, sans vrais enfants impliqués ? Cette question est actuellement débattue dans le cadre de la révision d’une directive européenne.

Les membres du Parlement européen s’accordent sur la nécessité de criminaliser ces contenus, mais les États membres ont des positions divisées. À ce stade des négociations, des associations européennes de protection de l’enfance craignent un manque d’harmonisation, permettant à chaque pays de décider de l’interdiction ou non de ces contenus.

Dans sa version actuelle, la directive pourrait permettre la possession, à des fins « d’usage personnel », de contenus générés par l’IA sans en faire une infraction, sauf si des réglementations nationales plus strictes sont adoptées, selon l’IWF.

L’Union européenne se trouve à un carrefour et a l’opportunité, aux côtés du Royaume-Uni, de se montrer comme un leader dans la lutte contre ce fléau, a déclaré Angèle Lefranc, responsable du plaidoyer à la Fondation pour l’Enfance. Nous demandons également que le Conseil de l’Union européenne reconnaisse sans réserve que la pédocriminalité générée par l’IA constitue un crime.

La Fondation pour l’Enfance rejette fermement l’idée selon laquelle visionner des contenus fictifs pourrait être une alternative moins sérieuse à consulter des images réelles. « Une personne qui consulte des images pédo-pornographiques peut ne jamais passer à l’acte », avertit Angèle Lefranc, « mais toutes les personnes condamnées pour avoir agressé des enfants avaient déjà visionné ce type de contenus ».

Les militants pour les droits des enfants soulignent que la consommation de ces vidéos peut contribuer à normaliser les abus sexuels sur mineurs. L’IWF note aussi que certaines IA sont formées à partir d’images réelles d’abus, aggravant ainsi la situation.

Laisser un commentaire

Your email address will not be published.

Dernières nouvelles

À NE PAS MANQUER