Déclaration de l’UNICEF sur les images sexualisées d’enfants générées par l’IA.
L’UNICEF est de plus en plus alarmé par les signalements faisant état d’une augmentation fulgurante du volume d’images à caractère sexuel générées par l’IA qui circulent, notamment de cas où des photos d’enfants sont détournées et sexualisées.
Les deepfakes – images, vidéos ou fichiers audio générés ou modifiés à l’aide de l’intelligence artificielle (IA) afin de paraître réels – sont de plus en plus utilisés pour produire des contenus à caractère sexuel impliquant des enfants, notamment par le biais de « la nudification », qui consiste à utiliser des outils d’IA pour déshabiller ou modifier les vêtements sur des photos afin de créer des images fictives de nudité ou à caractère sexuel.
De nouvelles données confirment l’ampleur de cette menace grandissante : dans une étude menée par l’UNICEF, ECPAT et INTERPOL* dans 11 pays, au moins 1,2 million d’enfants ont déclaré avoir vu leurs photos détournées en deepfakes sexuellement explicites au cours de l’année écoulée. Dans certains pays, cela représente 1 enfant sur 25, soit l’équivalent d’un enfant par classe.
Les enfants eux-mêmes sont pleinement conscients de ce risque. Dans certains des pays concernés par l’étude, jusqu’à deux tiers des enfants ont déclaré craindre que l’IA puisse être utilisée pour créer de fausses images ou vidéos à caractère sexuel. Le niveau d’inquiétude varie considérablement d’un pays à l’autre, ce qui souligne l’urgence de renforcer les mesures de sensibilisation, de prévention et de protection.
Des images fictives, des préjudices bien réels
Soyons clairs : les images à caractère sexuel d’enfants générées ou modifiées à l’aide d’outils d’IA constituent du matériel pédopornographique (CSAM). L’utilisation abusive des deepfakes est une forme d’abus, et le préjudice qu’elle cause n’a rien de fictif.
Lorsque l’image ou l’identité d’un enfant est utilisée, cet enfant est directement victime d’abus. Même en l’absence de victime identifiable, le matériel pédopornographique généré par l’IA normalise l’exploitation sexuelle des enfants, alimente la demande de contenus abusifs et complique considérablement le travail des forces de l’ordre pour identifier et protéger les enfants qui ont besoin d’aide.
L’UNICEF accueille très favorablement les efforts déployés par les développeurs d’IA qui mettent en œuvre des approches axées sur la sécurité dès la conception ainsi que des garde-fous efficaces pour prévenir toute utilisation abusive de leurs systèmes. Cependant, la situation reste inégale et trop de modèles d’IA ne sont pas développés avec un niveau de protection adéquat. Les risques peuvent être aggravés lorsque des outils d’IA générative sont directement intégrés à des plateformes de réseaux sociaux qui permettent la diffusion rapide d’images trafiquées.
L’UNICEF lance un appel urgent
L’UNICEF lance un appel urgent en faveur des mesures suivantes afin de faire face à la menace croissante que représentent les contenus pédopornographiques générés par l’IA :
- Tous les gouvernements doivent revoir la définition des contenus pédopornographiques afin d’y inclure les contenus générés par l’IA, et criminaliser leur création, leur acquisition, leur possession et leur distribution.
- Les développeurs d’IA doivent mettre en œuvre des mesures de sécurité dès la conception et des garde-fous robustes afin d’empêcher toute utilisation abusive des modèles d’IA.
- Les entreprises numériques doivent empêcher la circulation de matériel pédopornographique généré par l’IA, et ne pas se contenter de le supprimer après que l’abus ait eu lieu. Elles doivent également renforcer la modération des contenus en investissant dans des technologies de détection, afin que ce type de matériel puisse être supprimé immédiatement, et non plusieurs jours après avoir été signalé par une victime ou son représentant.
Les dommages causés par l’utilisation abusive des deepfakes sont réels et urgents. Les enfants ne peuvent pas attendre que la loi rattrape son retard.
Consultez la dernière note d’information de l’UNICEF sur l’IA et l’exploitation et les abus sexuels des enfants ICI
Notes aux rédactions :
Cette déclaration reflète les positions exposées dans le guide de l’UNICEF sur l’IA et les enfants 3.0 (décembre 2025).
* Ces nouvelles données font partie de la phase 2 du projet « Disrupting Harm », la deuxième phase d’un projet de recherche mené par le Bureau de la stratégie et des données factuelles de l’UNICEF – Innocenti, ECPAT International et INTERPOL, avec le financement de Safe Online. Le projet examine comment les technologies numériques facilitent l’exploitation et les abus sexuels des enfants, et génère des données factuelles pour aider à renforcer les systèmes, les politiques et les réponses nationaux. Dans le cadre de cette phase, des rapports nationaux présentant les conclusions au niveau des pays seront publiés tout au long de l’année 2026. Les estimations présentées ici sont basées sur des enquêtes représentatives menées auprès des ménages par l’UNICEF et IPSOS dans 11 pays. Chaque enquête portait sur un enfant âgé de 12 à 17 ans et un parent ou un tuteur, en utilisant un plan d’échantillonnage visant à obtenir une couverture nationale complète ou quasi complète (91 à 100 %). La recherche a été menée dans des pays représentant des contextes régionaux divers. De plus amples détails méthodologiques sont disponibles à l’adresse suivante : https://safeonline.global/dh2-research-methods_final-2/