La Nation Bénin...

Deepfakes sexuels: l’UNICEF alerte sur une nouvelle forme d’abus contre les enfants

Actualités

L’utilisation abusive de l’intelligence artificielle pour créer des images sexuelles d’enfants constitue une forme grave de violence. Face à l’explosion des deepfakes, l’UNICEF tire la sonnette d’alarme et appelle à une mobilisation urgente des États, des entreprises numériques et des développeurs d’IA.

Par   Lhys DEGLA, le 04 févr. 2026 à 20h16 Durée 2 min.
#unicef #Deepfakes sexuel

L’organisation se dit profondément préoccupée par la multiplication de contenus à caractère sexuel générés par l’intelligence artificielle mettant en scène des enfants. De plus en plus de photos d’enfants sont détournées, modifiées et sexualisées à l’aide de technologies de deepfake, causant des préjudices psychologiques et sociaux bien réels aux victimes.

Les deepfakes  (images, vidéos ou fichiers audio créés ou altérés par l’IA afin de paraître authentiques) sont désormais utilisés pour produire du matériel pédopornographique. Parmi les pratiques les plus inquiétantes figure la « nudification », qui consiste à retirer ou modifier les vêtements d’enfants sur des photos ordinaires afin de créer de fausses images de nudité ou à caractère sexuel.

Une menace massive et documentée

Une étude récente menée conjointement par l’UNICEF, ECPAT et INTERPOL dans 11 pays révèle l’ampleur du phénomène. Au moins 1,2 million d’enfants ont déclaré avoir vu leurs images transformées en deepfakes sexuellement explicites au cours de l’année écoulée. Dans certains pays, cela représente un enfant sur 25, soit l’équivalent d’un enfant par classe.

Les enfants eux-mêmes sont conscients de ce risque. Dans plusieurs pays étudiés, jusqu’à deux tiers des enfants disent craindre que l’IA puisse être utilisée pour créer de fausses images ou vidéos sexuelles à leur sujet. Des niveaux d’inquiétude variables d’un pays à l’autre mettent en évidence d’importantes disparités en matière de sensibilisation, de prévention et de protection.

Des images fictives, un préjudice bien réel

Pour l’UNICEF, il n’y a aucune ambiguïté : les images sexuelles d’enfants générées ou modifiées à l’aide de l’IA constituent du matériel pédopornographique (CSAM). L’utilisation abusive des deepfakes est une forme d’abus à part entière.

Lorsqu’un enfant est identifiable, il devient directement victime, même si les images sont artificielles. Et même en l’absence de victime clairement identifiable, ces contenus contribuent à banaliser l’exploitation sexuelle des enfants, à alimenter la demande de matériel abusif et à compliquer le travail des forces de l’ordre chargées d’identifier et de protéger les victimes.

Un appel urgent à l’action

Si l’UNICEF salue les efforts de certains développeurs d’IA qui intègrent des mesures de sécurité dès la conception de leurs outils, l’organisation estime ces initiatives encore insuffisantes. Les risques sont accrus lorsque des outils d’IA générative sont directement intégrés aux plateformes de réseaux sociaux, facilitant la diffusion rapide de contenus trafiqués.

Face à cette menace, l’UNICEF appelle les gouvernements à adapter leurs cadres juridiques afin d’inclure les contenus générés par l’IA dans la définition du matériel pédopornographique et à en criminaliser la création, la possession et la diffusion. L’organisation exhorte également les développeurs d’IA à renforcer les garde-fous techniques et les entreprises numériques à empêcher la circulation de ces contenus en investissant dans des technologies de détection rapides et efficaces.

« Les dommages causés par les deepfakes sont réels et urgents. Les enfants ne peuvent pas attendre que la loi rattrape son retard », avertit l’UNICEF.