https://www.naturalnews.com/2025-07-20-1-in-5-spanish-youth-victimized-deepfakes.html
Ava Grace 20 juillet 2025
- Un rapport de Save the Children révèle que 20 % des jeunes de 18 à 21 ans interrogés ont vu des images de nu générées par l'IA partagées sans consentement avant l'âge de 18 ans, et que 97 % d'entre eux ont subi une forme d'abus sexuel en ligne.
- Des outils d'IA créent de faux nus hyperréalistes à partir de photos anodines diffusées sur les réseaux sociaux, laissant les victimes impuissantes face à la diffusion de contenus manipulés. Contrairement au revenge porn, les deepfakes ne nécessitent aucun contenu réellement compromettant.
- Près de la moitié des jeunes ne voient aucun risque à partager des images intimes, cherchant souvent à se faire valider. Les filles sont plus exposées aux risques : 36 % ont signalé des contacts sexuels non désirés en ligne, contre 26 % des garçons.
- L'Espagne manque de lois contre les abus liés à l'IA, ce qui expose les mineurs au chantage et aux traumatismes. Save the Children réclame des sanctions plus sévères, la vérification de l'âge et des programmes d'éducation numérique.
- Le rapport prévient que sans mesures proactives, l’exploitation par l’IA va s’intensifier, exigeant des réformes législatives et éducatives rapides pour protéger les mineurs.
Un nouveau rapport choquant révèle qu'un adolescent espagnol sur cinq a été victime de deepfakes de nus générés par l'intelligence artificielle (IA) - de fausses images manipulées numériquement conçues pour paraître réelles - partagées en ligne sans son consentement.
L'étude menée par l'organisation non gouvernementale Save the Children révèle une tendance inquiétante : les mineurs sont de plus en plus ciblés par des prédateurs sexuels utilisant des outils d'IA avancés . Presque tous les répondants (97 %) ont déclaré avoir subi une forme d'abus sexuel en ligne avant leurs 18 ans.
Les résultats sont basés sur une enquête menée auprès de plus de 1 000 jeunes adultes âgés de 18 à 21 ans. Ils mettent en évidence une crise qui se déroule dans l’ombre numérique, où la technologie dépasse la réglementation et laisse les enfants vulnérables à l’exploitation.
L'IA, autrefois saluée comme une avancée majeure en matière d'innovation, est désormais utilisée comme arme contre les mineurs. La technologie Deepfake utilise l'IA pour superposer le visage d'une personne sur des images ou des vidéos explicites, créant ainsi des falsifications hyperréalistes.
Contrairement au revenge porn traditionnel, où de vraies images sont divulguées, les deepfakes fabriquent de la nudité à partir de photos innocentes, souvent issues des réseaux sociaux. Les victimes, qui n'en sont conscientes que trop tard, se retrouvent impuissantes face à la diffusion en ligne de leur image retouchée numériquement. (À lire également : Les deepfakes générés par l'IA commencent à influencer l'opinion publique mondiale .)
Le rapport souligne que 20 % des jeunes Espagnols interrogés ont vu des images d'eux-mêmes nus générées par l'IA partagées sans autorisation avant l'âge de 18 ans. Pire encore, de nombreux cas ne sont pas signalés en raison de la honte, de la peur ou du manque de recours juridique.
De manière alarmante, l'étude révèle que près de la moitié des jeunes interrogés ne voient aucun risque à partager des images intimes, tandis que beaucoup le font en quête de validation ou d'affection. Cette normalisation des comportements à risque fait le jeu des prédateurs. Les filles sont ciblées de manière disproportionnée : 36 % d'entre elles ont signalé des contacts sexuels non désirés avec des adultes en ligne, contre 26 % des garçons.
Un cas poignant concerne une fillette de 12 ans d'Alicante, victime de chantage avec des photos de nu générées par l'IA si elle ne transmettait pas une vidéo sexuellement explicite. Bien qu'elle n'ait jamais partagé un tel contenu, elle s'en voulait – un exemple tragique de la façon dont les prédateurs manipulent les jeunes victimes pour les réduire au silence.
Lacunes juridiques et échec des garanties numériques
Comme une grande partie de l'Europe, l'Espagne ne dispose pas de lois complètes pour lutter contre l'exploitation générée par l'IA. Si la pédopornographie traditionnelle est criminalisée, l'exploitation des deepfakes se situe dans une zone d'ombre juridique.
Save the Children alerte sur le fait que les protections actuelles sont cruellement insuffisantes, exposant les mineurs au chantage, au harcèlement et aux traumatismes psychologiques. L'organisation exhorte les législateurs à :
- Renforcer les sanctions pour les contenus à caractère sexuel générés par l’IA.
- Rendre obligatoire une vérification plus stricte de l’âge sur les plateformes sociales.
- Mettre en œuvre des programmes d’alphabétisation numérique dans les écoles pour sensibiliser les mineurs aux risques en ligne.
Cette crise n'est pas la première en Espagne à être confrontée à des abus numériques. Au cours de la dernière décennie, des scandales de cyberharcèlement et de revenge porn ont ravagé les écoles, entraînant des réformes juridiques.
Cependant, l'évolution rapide de l'IA a dépassé les réponses législatives. Contrairement aux menaces passées, les deepfakes ne nécessitent aucun matériel original compromettant, ce qui les rend plus difficiles à prévenir et plus faciles à utiliser comme arme.
Le rapport de Save the Children est un signal d'alarme. Si rien n'est fait, l'exploitation par l'IA va s'intensifier, laissant une génération entière marquée par des violations numériques auxquelles elle n'a jamais consenti. Parents, éducateurs et législateurs doivent agir non seulement par des mesures réactives, mais aussi par des mesures proactives qui évoluent avec la technologie.
Visitez Faked.news pour plus d’histoires similaires.
Regardez cette vidéo qui explique pourquoi les deepfakes sont si réalistes .
Cette vidéo provient de la chaîne PROMOGIRL07 sur Brighteon.com .
Plus d'histoires connexes :
Tromperie impie : des robots IA clonent les voix des évêques pour escroquer des couvents en Espagne .
L’État profond utilise des « deepfakes » pour attaquer les gens dans les médias .
Les sources incluent :
***********************************************************************************
exemple de deepfake
trouvé sur : https://www.egaliteetreconciliation.fr/Gros-Bayrou-veut-epargner-aux-Francais-un-scenario-a-la-grecque-78764.html

Aucun commentaire:
Enregistrer un commentaire