Mundo

Unicef alerta sobre abuso sexual de niños por proliferación de imágenes generadas con IA

El organismo advirtió que el uso de la imagen o la identidad de un menor, incluso mediante manipulación digital, lo convierte directamente en una víctima de abuso.

GoogleSiga a EL PAÍS en Google Discover y no se pierda las últimas noticias

Investigación de UNICEF e Interpol revela expansión de deepfakes sexuales contra menores.
Investigación de Unicef e Interpol revela expansión de deepfakes sexuales contra menores. | Foto: UNICEF

5 de feb de 2026, 03:46 p. m.

Actualizado el 5 de feb de 2026, 03:46 p. m.

La rápida expansión de la inteligencia artificial continúa abriendo nuevos frentes de riesgo para la niñez a escala global. Así lo reveló una investigación conjunta de Unicef, Ecpat e Interpol, la cual encendió las alarmas al revelar un aumento sin precedentes en la creación y circulación de imágenes sexualizadas de niños y niñas manipuladas mediante herramientas de IA, una problemática que ya afecta a al menos 1,2 millones de menores en 11 países, entre ellos Colombia.

El estudio, divulgado a comienzos de febrero de 2026, advierte que los llamados 'deepfakes’, imágenes, videos o audios creados o alterados digitalmente con apariencia de realidad, están siendo utilizados cada vez con mayor frecuencia para producir contenido sexualizado de menores.

Dentro de estas prácticas se encuentra la denominada “nudificación”, que consiste en retirar o modificar digitalmente la ropa de niños y niñas en fotografías reales para generar desnudos falsos o imágenes de carácter sexual explícito.

De acuerdo con los hallazgos, el impacto de este fenómeno es significativo. En algunos de los países analizados, la cifra de menores afectados equivale a uno de cada 25 niños, lo que representa, en términos prácticos, al menos un estudiante por aula escolar.

Unicef señaló que estas cifras confirman la magnitud de un problema que no solo crece en volumen, sino también en complejidad y alcance, debido a la velocidad con la que este tipo de material puede difundirse en entornos digitales.

La investigación también recoge la percepción de los propios niños y niñas frente a este riesgo. En varios de los países incluidos en el estudio, hasta dos terceras partes de los menores manifestaron preocupación ante la posibilidad de que la inteligencia artificial sea utilizada para falsificar imágenes o videos suyos con fines sexuales.

Para el organismo de Naciones Unidas, esta inquietud generalizada pone en evidencia la necesidad urgente de reforzar las estrategias de prevención, concientización y protección en el entorno digital.

Unicef fue enfático al señalar que, aunque las imágenes sean falsas, el daño que producen es real. El organismo advirtió que el uso de la imagen o la identidad de un menor, incluso mediante manipulación digital, lo convierte directamente en una víctima de abuso.

Además, subrayó que la circulación de este tipo de material contribuye a normalizar la explotación sexual infantil, alimenta la demanda de contenidos abusivos y dificulta la labor de las autoridades para identificar y proteger a los niños y niñas que requieren ayuda.

El riesgo, añadió la organización, puede intensificarse cuando las herramientas de IA se integran directamente en plataformas de redes sociales, donde la difusión de imágenes manipuladas puede darse de forma rápida y masiva. Aunque Unicef reconoció avances por parte de algunos desarrolladores de inteligencia artificial que han incorporado enfoques de seguridad desde el diseño, advirtió que el panorama sigue siendo desigual y que muchos modelos aún carecen de salvaguardias adecuadas.

Ante este escenario, el organismo hizo un llamado urgente a la acción. Entre las medidas propuestas se encuentra la ampliación de las definiciones legales de lo que constituye material de abuso sexual infantil para incluir expresamente el contenido generado por IA, así como la penalización de su creación, adquisición, posesión y distribución.

Asimismo, la entidad también instó a los desarrolladores de inteligencia artificial a implementar mecanismos sólidos de prevención del uso indebido y a las empresas digitales a fortalecer la moderación de contenidos mediante inversiones en tecnologías de detección que permitan retirar este material de forma inmediata.

“El daño que provoca el abuso mediante deepfake es real y requiere una respuesta inmediata”, concluyó Unicef, al advertir que los niños y niñas no pueden esperar a que la legislación avance al ritmo de una tecnología que evoluciona de manera acelerada.

Ariadna María Orozco, reportera de El País. Comunicadora social y periodista con experiencia en medios escritos, televisivos, radiales y digitales. Ha participado en la cobertura de eventos deportivos de relevancia nacional y en programas especiales para noticieros regionales, especialmente en el Valle del Cauca.

Regístrate gratis al boletín de noticias El País

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

AHORA EN Mundo