UNICEF pide que se tipifique como delito el contenido de IA que muestre abusos sexuales a menores

04 de febrero, 2026 | 16.13

‍La agencia de las Naciones Unidas para la infancia, UNICEF, pidió el miércoles a los países que penalicen ‍la creación de contenidos ⁠de abuso sexual infantil generados por inteligencia artificial, afirmando que le alarmaban los informes sobre el aumento del número de imágenes de IA que sexualizan a los niños.

La agencia también instó a los desarrolladores a implementar enfoques de seguridad desde el diseño y medidas de protección para evitar el uso indebido de los modelos de IA. UNICEF dijo que las empresas digitales deben ‌impedir la circulación de estas imágenes reforzando la ⁠moderación de contenidos con inversiones en ⁠tecnologías de detección.

"El daño causado por el abuso de los deepfake es real y urgente. Los niños no pueden esperar a ‍que la ley se ponga al día", dijo UNICEF en un comunicado. Los deepfake son ⁠imágenes, vídeos y audios generados por ‌IA que imitan de forma convincente a personas reales.

Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.

SUSCRIBITE A EL DESTAPE

UNICEF también expresó su preocupación por el uso de la IA para quitar o alterar la ropa en las fotos con el fin de crear imágenes falsas de desnudos o ‌sexualizadas. Según UNICEF, ‌al menos 1,2 millones de niños de 11 países revelaron que sus imágenes habían sido manipuladas para crear deepfake sexualmente explícitos durante el último año.

Gran Bretaña anunció el sábado que planea ilegalizar el uso de ​herramientas de IA para crear imágenes de abuso sexual infantil, convirtiéndose en el primer país en hacerlo.

En los últimos años ha aumentado la preocupación por el uso de la IA para generar contenidos de abuso infantil, en particular los chatbots como Grok de xAI, propiedad de Elon Musk, que ha sido objeto de ‍escrutinio por producir imágenes sexualizadas de mujeres y menores.

Una investigación de Reuters descubrió que el chatbot seguía generando las imágenes pese a que los usuarios advertían explícitamente de que los sujetos no habían dado su consentimiento.

xAI declaró el 14 de enero que ​había restringido la edición de imágenes para los usuarios de Grok AI y bloqueado a los usuarios, en función de su ubicación, ​para que no generaran imágenes de personas con ropa reveladora en "jurisdicciones donde es ilegal". No identificó los países.

Antes, había ⁠limitado el uso de las funciones de generación y edición de imágenes de Grok solo a los suscriptores de pago.

Con información de Reuters