Sharenting en tiempos de deepfake.
Hace unos años, no tantos -quizás esto delate mi edad-, guardábamos fotos en la billetera. Antes era el gesto orgulloso de sacar el plástico y decir “mirá mi hijo”, “mirá mi nieta”. Hoy es una historia. Un estado de WhatsApp. Una ecografía es compartida antes de que ese bebé tenga nombre. Un cumpleaños, una foto en la playa, una malla color flúor bajo el sol del verano. El impulso es el mismo: mostrar amor. Lo que cambió fue la escala. Y el riesgo.
En diciembre de 2025, Unicef publicó una declaración en la que manifestó su “profunda preocupación” por el rápido aumento de imágenes sexualizadas generadas con inteligencia artificial que circulaban en la red, incluidas fotografías de niños y niñas manipuladas y sexualizadas. No estamos hablando de ciencia ficción. Estamos hablando de deepfakes: imágenes, videos o audios creados o alterados con IA que parecen reales. Y que, cada vez más, se utilizan para “nudificar” fotos de menores: quitar o modificar digitalmente la ropa para crear desnudos falsos.
Los números no son abstractos. El estudio realizado por Unicef junto a Ecpat International (una red global de organizaciones de la sociedad civil que trabaja para erradicar la explotación sexual infantil) e Interpol en 11 países detalla que al menos 1,2 millón de chicos y chicas revelaron haberse visto afectados en el último año por la manipulación sexual explícita de sus imágenes mediante deepfakes. En algunos lugares, eso equivale a uno de cada 25 niños. Uno por aula.
La frase clave del documento es brutal en su claridad: los abusos cometidos mediante deepfake siguen siendo abusos. Aunque la imagen sea falsa, el daño es real.
Hay algo particularmente inquietante en esta nueva forma de violencia. Durante años repetimos —con razón— que había que enseñar a los chicos a no enviar fotos íntimas, a no confiar en desconocidos, a cuidar su privacidad. Hoy el escenario cambió. Ya no hace falta que un niño envíe nada. Cualquier foto pública puede ser manipulada. Cualquier imagen descargada de un perfil abierto puede convertirse en contenido sexualizado y empezar a circular.
Hace apenas una semana hubo polémica por una herramienta de inteligencia artificial integrada en X que permitía alterar imágenes con instrucciones simples. Subir la foto de una niña y pedir que “le saque la ropa”, que “le ponga bikini”, que la ubique en otro contexto. Suena apocalíptico. Pero es técnicamente posible. Y ya está pasando.
En paralelo, seguimos practicando lo que los especialistas llaman sharenting: la sobreexposición digital de la infancia por parte de los adultos. Un 23% de los niños tiene presencia en redes incluso antes de nacer, a través de ecografías publicadas. Antes de los cinco años, muchos ya acumulan más de 100 fotos online. Nos parece natural. Es la versión digital de aquella billetera inflada de fotos. Pero internet no es la sobremesa familiar.
Un informe de Telecom advierte que para 2030, dos tercios de los robos de identidad o fraudes financieros que afecten a esos futuros adultos estarán vinculados con información que compartieron sus padres años antes. No solo hablamos de imágenes sexualizadas. Hablamos de huellas digitales permanentes.
Lo más inquietante es que los propios chicos ya lo saben. En algunos países del estudio, hasta dos tercios dijeron estar preocupados por la posibilidad de que la IA se use para falsificar imágenes sexuales suyas. Ellos perciben el peligro. Nosotros todavía lo relativizamos.
En las charlas familiares aparece una frase recurrente: “Pero yo le pregunto y si quiere”. ¿Qué significa consentir a los siete u ocho años algo cuyo alcance no se comprende? ¿Qué dimensión real puede tener un niño de lo que implica que su foto en malla quede disponible para siempre en un ecosistema donde existen herramientas capaces de desnudarla digitalmente?
Tal vez tengamos que preguntar menos qué hacen ellos en internet, y empezar a preguntarnos qué hacemos nosotros.
Eso implica conversaciones incómodas: decidir que una foto en la playa no se sube; explicar por qué; ofrecer alternativas más privadas; revisar contactos en el teléfono, pero avisando; abrir diálogos cotidianos que no empiecen con la sospecha sino con el interés: “¿Viste algo bueno hoy en internet?”. Porque si la red se convierte en territorio prohibido, cuando algo malo ocurra no habrá conversación.
Unicef fue claro en sus pedidos: ampliar las definiciones legales de lo que constituye abuso sexual infantil para incluir contenido generado por IA; penalizar su creación y distribución; exigir a los desarrolladores seguridad desde el diseño; obligar a las plataformas a prevenir la circulación y no solo a borrar después del daño. La tecnología avanza más rápido que la legislación. Pero los chicos no pueden esperar a que la ley se actualice.
Quizás esta sea la verdadera diferencia con la vieja foto en la billetera. Aquella que se mostraba a quien estaba enfrente. Esta puede terminar en manos que no conocemos. Y ahora, además, puede transformarse en algo que nunca existió, pero que duele como si hubiera existido.
La pregunta no es si vamos a dejar de subir fotos. La pregunta es si vamos a empezar a pensar cada publicación como un acto de responsabilidad. Porque en la era del deepfake, el orgullo también necesita límites.




















