Te imaginás entrar un día a las redes sociales y encontrar fotos íntimas generadas por una Inteligencia Artificial de tu hija. O de tu esposa. O de una hermana. O de una amiga. O de vos misma. Este no es un ejercicio macabro de la imaginación, sino el último y más brutal escándalo de X, propiedad de Elon Musk. El escándalo, filtrado por asistentes como Grok, evidencia una nueva y siniestra dimensión: la violación digital ahora puede ser amplificada por la IA. Este hecho no es una anomalía, sino el síntoma predecible de un ecosistema que trata la intimidad como dato y el trauma como contenido. Las plataformas, obsesionadas con el engagement, crearon las condiciones para que el daño se automatice y escale. La indignación pública, aunque necesaria, se estrella contra algoritmos opacos y políticas reactivas. ¿Dónde termina la responsabilidad del usuario y comienza la obligación ineludible de quienes diseñan y monetizan estas herramientas?

La indignación internacional no apunta a un algoritmo oscuro, sino a una función concreta y accesible. El blanco es Grok, que hasta hace algunas semanas permitía a cualquier “twittero” solicitar y recibir, en cuestión de segundos, la creación de imágenes sexualizadas a partir de fotografías de personas reales, incluidas menores. El mecanismo era tan banal como siniestro. Un usuario publicaba una imagen de una mujer con la instrucción "Ponele un bikini", y el bot respondía con un montaje ultrarrealista (deepfake). Aunque el 9 de enero se restringió esta función a usuarios premium, por primera vez una red social masiva integró y normalizó en su interfaz la capacidad de generar violaciones digitales.

Según el análisis del grupo AI Forensics sobre más de 20.000 imágenes generadas por Grok, más de la mitad representaban personas con poca ropa, y de ese total, el 81% eran mujeres y un 2% aparentaban ser menores de edad. El Centro para Combatir el Odio Digital (CCDH) proyecta una escala aterradora. Estima que la herramienta generó cerca de tres millones de imágenes sexualizadas en solo 11 días (un promedio de 190 por minuto), incluyendo unas 23.000 que parecen representar a adolescentes. El blanco no fue anónimo. Incluyó desde celebridades como Taylor Swift y Selena Gómez hasta figuras políticas como Kamala Harris. Estos datos convierten la polémica en una estadística: Grok no fue explotado de manera puntual, sino utilizado masivamente para producir deepfakes sexualizados.

No hubo comentarios inmediatos sobre los hallazgos por parte del ex Twitter. Al ser contactada por la Agence France-Presse (AFP) por correo electrónico, X respondió con un escueto mensaje automatizado: "Mentiras de los medios tradicionales".

Musk respondió a las críticas con dos argumentos: uno técnico, asegurando que Grok sigue las mismas reglas contra contenido ilegal que los usuarios, y otro político, acusando a sus detractores de querer "suprimir la libertad de expresión". Para el dueño de X, el debate no es sobre una función que sexualiza imágenes sin consentimiento, sino sobre la censura.

Un secuestro digital

El caso de Daisy Dixon, una profesora de filosofía de Gales, materializa la violencia abstracta en una experiencia concreta. Usuarios de X utilizaron Grok para secuestrar sus fotos públicas, en las que se veía con ropa deportiva, y ordenar a la IA que la mostrara en lencería, con poses "más vulgares" o incluso embarazada. "Es un secuestro digital de tu cuerpo", denunció la docente. Lo más revelador es la mecánica del horror. Dixon podía ver en tiempo real cómo las solicitudes y las imágenes generadas aparecían en su propia cuenta, mientras Grok obedecía. Cuando intentó denunciar una de esas imágenes, encontró que la plataforma no ofrecía ningún medio para hacerlo. Su testimonio desnuda la ecuación perfecta. Una herramienta que obedece, usuarios que piden, una víctima que observa impotente y una plataforma que, al no proveer recurso alguno, se convierte en cómplice estructural del daño.

El daño trasciende lo individual y corroe los cimientos de la confianza social. Para cada víctima, la violación es íntima y la pérdida de control sobre su propia imagen, absoluta. Pero el impacto colectivo es aún más malicioso: si cualquier fotografía puede ser alterada de forma hiperrealista sin dejar rastros, ver deja de equivaler a creer.

Frente a la inacción de las plataformas, la respuesta comienza a surgir desde la ley. La Comisión Europea anunció una investigación formal contra X por las imágenes generadas por Grok, en lo que constituye el primer gran examen regulatorio de una herramienta de IA integrada en una red social. "No toleraremos comportamientos insensatos", declaró la presidenta Ursula von der Leyen, dejando en claro que Europa no confiará "la protección de la infancia a plataformas tecnológicas para que la vulneren y la moneticen". Esta investigación, que amplía otra ya en curso, busca verificar si X infringió la estricta Ley de Servicios Digitales (DSA), que obliga a las plataformas a proteger a los usuarios de contenidos ilegales.

Fue Corea del Sur la que tomó la delantera regulatoria. El jueves de la semana pasada se convirtió en el primer país en aplicar formalmente una Ley Básica de IA, que incluye medidas concretas contra los deepfakes. La norma obliga a las empresas a avisar cuándo usan IA generativa y a etiquetar claramente el contenido hiperrealista que pueda confundirse con la realidad. Con multas de hasta U$S20.400 por infracciones, la ley busca establecer "una base segura y confiable" para la innovación.

El núcleo del horror no está en la imagen generada, sino en el mecanismo. La víctima observa en tiempo real cómo se construye su humillación. Ahí reside el nuevo paradigma del daño: ser testigo impotente de cómo tu identidad es desmantelada, clic a clic, por una herramienta que obedece a todos menos a vos.