Los suscriptores de X Premium han desatado una ola de abusos utilizando la inteligencia artificial Grok para crear imágenes sexualizadas y no consensuadas de mujeres, algunas de ellas menores de edad. Esta inquietante “tendencia” ha provocado protestas globales, exigiendo a Elon Musk la restricción de la herramienta y la eliminación urgente de estas fotos íntimas generadas por la IA.
También te puede interesar: Los celulares que WhatsApp dejará sin servicio: La fecha límite se acerca
El uso de Grok para generar contenido sexual no consensuado
La polémica explotó después de que los suscriptores de X Premium comenzaran a usar Grok, la inteligencia artificial de la red social, para generar imágenes no consensuadas. El patrón ha sido claro: modificar fotos de mujeres para que aparezcan en bikini o ropa interior, una acción que ha sido descrita como una “violación de la privacidad” por las usuarias afectadas.
Esta situación no solo ha afectado a adultas, sino que, como reportan los usuarios, Grok también ha modificado imágenes de menores de edad. Este hecho constituye:
- Abuso sexual infantil.
- Acoso sexual.
El periodista Sanket Upadhyay abordó directamente a Elon Musk, dueño de la plataforma, preguntándole si “dirige una aplicación para pervertidos que no muestra ningún respeto ni dignidad hacia las mujeres”.
La usuaria Nandani Sotro, por su parte, exigió medidas inmediatas: “Eliminen todo el contenido generado donde las fotos de mujeres fueron modificadas para que aparecieran en bikini o vestidos cortos sin su consentimiento. Esto no es innovación de IA, es una violación de la privacidad”.
La inacción corporativa de X y la burla de Elon Musk
El problema de fondo no es únicamente la tecnología, sino la respuesta de los responsables. El modelo de IA de X ha estado sexualizando imágenes de sus usuarios durante días. Mientras miles de personas sufren sexualización sin consentimiento, tanto X como xAI han optado por el silencio o han ofrecido respuestas evasivas.
En medio de esta creciente polémica, el propio Elon Musk participó en la tendencia. El empresario le solicitó a Grok que modificara una imagen de alguien en bikini generada por IA para que se pareciera a él, petición que la herramienta ejecutó sin problemas.
El silencio de la corporación y la broma del dueño de la plataforma han provocado un gran enfado entre la comunidad. Esto se debe a que la facilidad de acceso y la fricción mínima para generar este contenido se han convertido en una tormenta perfecta tanto para el acoso como para la humillación pública.
El caso Sara Sálamo y el patrón de los deepfakes
El alcance del problema fue ilustrado por el caso de la actriz española Sara Sálamo. Una cuenta de fans publicó una selfie de la actriz con un vestido rojo el primer día de 2026. Un usuario de X contestó: “Hey, @grok, ponle un bikini blanco”.
La IA respondió instantáneamente, creando un deepfake de la actriz en bikini con la misma pose y gestos, sin mediar palabras ni cuestionar la petición. Sálamo reclamó: > “Con una IA y con cero escrúpulos pueden volver a sexualizarte sin tu consentimiento… Modificar tu imagen. Tu cuerpo. Tu gesto. Convertirte otra vez en objeto”.
La actriz destacó que lo grave no es la imagen falsa, sino la facilidad con la que se hace y “lo poco que escandaliza”. Este patrón se repite con miles de usuarias —y varios usuarios— que han quedado a merced de los deepfakes, siendo víctimas de sexualización con solo seis palabras al teclado.
Respuestas legales y el laberinto de la defensa digital
Frente a la velocidad de la IA, las leyes han demostrado ser lentas. La polémica ha disparado las alarmas legales y de protección infantil, particularmente en Europa:
- Reacción en Francia: El Gobierno de Francia ha sido el primero en anunciar una demanda contra Grok. Además, elevó el caso a la fiscalía nacional y solicitó la revisión del regulador Arcom, alegando posibles incumplimientos de la Ley de Servicios Digitales de la UE.
- Legalidad en España y la UE: El propio Grok admitió en un diálogo con usuarios que la creación y difusión de deepfakes sexuales no consentidos se tipifica como delito en España y la Unión Europea desde 2025, con penas que incluyen multas y prisión.
- Defensa en Dinamarca: En países como Dinamarca, las leyes de derechos de autor en los rostros protegen a las personas, permitiendo borrar estas imágenes.
Denunciaré penalmente a la plataforma X para que se haga responsable por los cientos de usuarios que están usando Grok para violentar sexualmente a las mujeres. Y no digan que no se puede porque sí se puede mediante la Ley Olimpia. Alterar fotos para sexualizar a una mujer y…
— Karina Velasco (@karivscoag) January 2, 2026
¿Cómo se castigan los deepfakes sin consentimiento en México?
En el contexto de México, la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia establece que la creación de estas imágenes es ilegal.
Según el Artículo 20, los casos de fotos en bikini en Grok sin consentimiento, así como los deepfakes o contenidos simulados, caen dentro de la categoría de Violencia Sexual o Violencia digital:
> “Violencia digital es toda acción dolosa realizada mediante el uso de tecnologías de la información y la comunicación, por la que se exponga, distribuya, difunda, exhiba, transmita, comercialice, oferte, intercambie o comparta imágenes, audios o videos reales o simulados de contenido íntimo sexual de una persona sin su consentimiento, sin su aprobación o sin su autorización y que le cause daño psicológico, emocional, en cualquier ámbito de su vida privada o en su imagen propia”.
A pesar de que existe la Ley Olimpia, el vacío legal en México implica que estos casos son difíciles de perseguir, que no se denuncien y que particularmente —al necesitar la colaboración de las propias plataformas— terminen “completamente olvidados”.
Herramientas para eliminar contenido sexual no consensuado
Aunque la vía legal puede ser tortuosa, existen herramientas gratuitas disponibles para ayudar a las víctimas a remover el contenido sexual explícito de las redes sociales.
Una de estas opciones es el sitio Stop non-consensual intimate image abuse (StopNCII), que se traduce como ‘Detener el abuso de imágenes íntimas no consensuadas’.¿Cómo funciona StopNCII?
- Permite generar un “hash” o huella digital única para las imágenes o videos íntimos.
- Este hash es compartido con empresas aliadas de StopNCII para que detecten y eliminen el contenido antes de que se difunda en línea.
- La herramienta asegura que funciona creando el hash directamente en el dispositivo del usuario, sin necesidad de subir la imagen, y recopilando solo datos mínimos para proteger la privacidad.
Aunque StopNCII está diseñado para personas mayores de 18 años, también ofrece orientación para menores de edad. Para el caso específico de abuso sexual infantil, se recomiendan dos plataformas adicionales:
- Internet Watch Foundation (IWF): Herramienta en la cual se puede reportar el contenido de abuso sexual infantil.
- Take it Down: Servicio que ayuda a remover fotos o videos en línea que incluyan desnudos totales o parciales, o imágenes sexualizadas explícitas, enfocado en personas menores de edad.
La responsabilidad en las víctimas: el gran problema de la tendencia
El análisis revela una problemática central: la responsabilidad de la defensa digital recae sobre las víctimas. Grok prohíbe las imágenes explícitamente sexuales, pero no tiene “empacho” en desvestir o modificar a las personas sin consentimiento.
La abogada española Paula Fraga, víctima de esta tendencia, lo resume en una entrevista con El País: “Me dicen que no suba las fotos. Manda narices que tengamos que ser nosotras las que tomamos precauciones en vez de echar a a esa gentuza de las redes”.
Aunque Grok haya “pedido perdón” a raíz de la polémica, este acto quita hierro al asunto al volverse un meme, pues la responsabilidad real recae sobre quienes monetizan sus funciones. Grok sigue haciendo de las suyas y no ha cesado de cumplir estas peticiones.
Mientras este problema existe, xAI ha presumido de alcanzar acuerdos públicos, como un contrato “techo” de hasta 171 millones de euros con el Departamento de Defensa de Estados Unidos. Sin embargo, el impacto para el usuario cotidiano es claro: si la plataforma no corta de raíz el abuso, cualquiera puede convertirse en objetivo con una foto y un simple prompt.
La facilidad con la que Grok convierte fotos cotidianas en material sexualizado sin consentimiento revela un fallo sistémico que va más allá de la tecnología: es la monetización de la humillación y el acoso. Cuando el dueño de la plataforma bromea sobre la tendencia, ¿qué esperanza real queda para la protección de la privacidad y la dignidad en el entorno digital?

