El Fondo de las Naciones Unidas para la Infancia (Unicef) demandó a los gobiernos "ampliar las definiciones de material de abuso sexual infantil (MASI) para incluir contenidos generados por IA" y penalizar "su creación, adquisición, posesión y distribución", al advertir con alarma que está aumentando la producción de 'deepfakes' con "contenido sexualizado que involucra a niños, incluso a través de la 'nudificación'".
"Cuando se utiliza la imagen o la identidad de un niño, este se convierte en una víctima directa. Incluso sin una víctima identificable, el material de abuso sexual infantil generado por IA normaliza la explotación sexual infantil, fomenta la demanda de contenido abusivo y presenta importantes desafíos para las fuerzas del orden a la hora de identificar y proteger a los niños que necesitan ayuda", se argumenta en un comunicado difundido este jueves en su portal web.
En adenda, se le exigió a los desarrolladores de IA que implementen "enfoques de seguridad desde el diseño y sólidas medidas de protección para prevenir el uso indebido de los modelos de IA", mientras que a las empresas digitales se les instó a "prevenir la circulación de material de abuso sexual infantil generado por IA, no solo eliminarlo una vez ocurrido el abuso" y a "fortalecer la moderación de contenidos invirtiendo en tecnologías de detección, para que dicho material pueda eliminarse de inmediato, no días después de la denuncia de la víctima o su representante", puesto que "los niños no pueden esperar a que la ley se ponga al día".
