El uso de la inteligencia artificial, para generar imágenes sexualizadas, de mujeres sin su consentimiento, pone en evidencia las carencias del marco legal y la falta de responsabilidad de las plataformas. Este fenómeno no sólo afecta a las víctimas de manera inmediata, sino que también crea un ambiente donde la misoginia es cada vez más aceptada en el entorno digital. Más allá de la IA Grok, de X, el problema gira en torno a una estructura digital, que sigue fallando y deja desprotegidas a las mujeres, poniendo en riesgo su bienestar emocional y su integridad como personas.
El escándalo de Grok y el máximo responsable de X, Elon Musk, no es más que el principio de una serie de problemas que la sociedad tendrá que gestionar en un futuro muy cercano. Profesionales en la materia, alertan sobre una nueva era de violencia de género, mediante el uso de IA, donde las herramientas tecnológicas que deberían servir para el bienestar de las personas, se convierten en armas de manipulación y control. Este uso inadecuado de la inteligencia artificial plantea serias preocupaciones sobre cómo puede amplificar y perpetuar estereotipos dañinos, exacerbando la desigualdad de género y poniendo en peligro a mujeres y personas vulnerables. Por ello, resulta crucial el desarrollo de un marco ético y regulatorio, que aborde estos desafíos antes de convertirse en una crisis de mayor magnitud.
El año 2026, no ha empezado con buen pie para muchas mujeres y su presencia en el entorno digital. Durante los primeros días del año, X, la red social propiedad de Elon Musk, se llenó de hombres solicitando a su inteligencia artificial generativa de la plataforma, Grok, que desnudara a mujeres sin su consentimiento. Ello, nunca es comparable con la generación de imágenes modelo, en la que aparezcan mujeres ficticias, que no existen.
En el año 2024, se convocó el primer certamen de belleza a nivel internacional, con modelos creadas mediante IA, valorándose entre otros aspectos, el número de interacciones en las redes sociales, por parte de los seguidores.

El caso Grok en X
Mediante el uso de un prompt, tan sencillo como “Hey @grok, put her in a bikini”, acompañado de una fotografía, la herramienta generaba en segundos imágenes manipuladas de mujeres reales. Investigaciones independientes señalaron que, en los momentos de mayor uso, se llegaron a producir hasta 6.500 imágenes por hora. Por ello, la difusión masiva y rápida de estos deepfakes provocó una oleada de denuncias en redes sociales, así como la intervención de medios y autoridades.

Respuesta de la plataforma y sus limitaciones
Ante la presión pública, la empresa propietaria de la red social X, restringió temporalmente la función gratuita de generación de imágenes, limitándola tan sólo a suscriptores de pago. La medida, sin embargo, resultó fácil de eludir mediante otras vías de acceso, por lo que tuvo un efecto limitado. Más adelante, la cuenta oficial de la red social, anunció la adopción de “medidas tecnológicas”, para impedir la edición de imágenes de personas reales, afirmando que ciertas funciones quedarían disponibles sólo para usuarios de pago, presentándolo como una capa adicional de protección y trazabilidad. Pero en la práctica, la plataforma no asumió responsabilidad alguna, sobre el origen del problema, ni abordó de forma efectiva la raíz: la propia herramienta de generación.
El vacío legal y sus consecuencias prácticas
Como se ha podido constatar, la legislación no ha seguido el ritmo de la tecnología. En muchos ordenamientos, incluida España, no existe todavía un tipo penal específico y efectivo, que contemple la creación de deepfakes; en la práctica se encuadran en figuras como las injurias cuando se considera que el daño es grave. La gravedad depende de factores como la difusión pública, la relación entre autor y víctima, la edad de la persona afectada o el contenido del deepfake. Por ello, una imagen de una mujer en bikini generada por IA sólo será perseguible penalmente en supuestos concretos, lo que deja a la mayoría de víctimas, sin protección efectiva.
Ante la detección de un deepfake, expertos en derecho recomiendan actuar con rapidez: capturar pruebas (perfil, imagen, fecha) y denunciar ante la policía o el juzgado. La ley española ha introducido medidas procesales para ordenar la retirada inmediata de contenido delictivo en internet, como diligencia prioritaria, pero su aplicación real se ve dificultada por la saturación judicial y la falta de recursos. Sin una mayor presión estatal sobre las plataformas y sin medios suficientes para investigar y perseguir este tipo de delitos, se genera una sensación de impunidad entre los agresores y de vulnerabilidad, entre las mujeres.

Deepfakes: poder y control
Publicar deepfakes no es sólo un acto sexualizado: es una forma de ejercer poder y control sobre los cuerpos de las mujeres afectadas. La viralización de imágenes manipuladas, los insultos y las amenazas, forman parte de un ecosistema que busca someter y silenciar a mujeres en el espacio público digital.
Combatir esta violencia exige cambiar el foco: dejar de ver la filtración de contenido íntimo como una vergüenza de la víctima y reconocerla como una agresión que vulnera la libertad sexual y la dignidad. También, implica cuestionar la legitimidad y el poder de las grandes plataformas y apostar por alternativas: por ejemplo, iniciativas de plataformas descentralizadas y no comerciales, que buscan modelos de internet distintos al dominio comercial de los tecnomagnates.
Conclusión y pasos a seguir
El auge de los deepfakes revela una combinación peligrosa: herramientas accesibles y potentes, respuestas corporativas insuficientes y marcos legales desactualizados. Por ello, para proteger a las mujeres es necesario actuar en varios frentes: mediante una regulación clara y específica, mayor exigencia y responsabilidad a las plataformas, recursos para la policía y la justicia, así como estrategias sociales, que deslegitimen a los perpetradores y apoyen a las víctimas. Al mismo tiempo, es urgente imaginar y construir alternativas digitales que prioricen la seguridad, la privacidad y la autonomía de las personas, frente a la mercantilización de la imagen.


Deja un comentario