Violencia digital contra la mujer.

Impacto de la IA en la violencia de género: una llamada a la acción

El escándalo de Grok y el máximo responsable de X, Elon Musk, no es más que el principio de una serie de problemas que la sociedad tendrá que gestionar en un futuro muy cercano. Profesionales en la materia, alertan sobre una nueva era de violencia de género, mediante el uso de IA, donde las herramientas tecnológicas que deberían servir para el bienestar de las personas, se convierten en armas de manipulación y control. Este uso inadecuado de la inteligencia artificial plantea serias preocupaciones sobre cómo puede amplificar y perpetuar estereotipos dañinos, exacerbando la desigualdad de género y poniendo en peligro a mujeres y personas vulnerables. Por ello, resulta crucial el desarrollo de un marco ético y regulatorio, que aborde estos desafíos antes de convertirse en una crisis de mayor magnitud.

El año 2026, no ha empezado con buen pie para muchas mujeres y su presencia en el entorno digital. Durante los primeros días del año, X, la red social propiedad de Elon Musk, se llenó de hombres solicitando a su inteligencia artificial generativa de la plataforma, Grok, que desnudara a mujeres sin su consentimiento. Ello, nunca es comparable con la generación de imágenes modelo, en la que aparezcan mujeres ficticias, que no existen.

En el año 2024, se convocó el primer certamen de belleza a nivel internacional, con modelos creadas mediante IA, valorándose entre otros aspectos, el número de interacciones en las redes sociales, por parte de los seguidores.

Participantes en el primer concurso de belleza con mujeres generadas mediante IA.
The Fanvue World AI Creator Awards, lanzó en 2024, el primer concurso de belleza por inteligencia artificial del mundo, con una serie de imágenes generadas con IA que compitieron por conseguir un premio, que alcanzaba los 20.000 dólares (unos 18.600 euros). Fuente: Euronews

El caso Grok en X

Mediante el uso de un prompt, tan sencillo como “Hey @grok, put her in a bikini”, acompañado de una fotografía, la herramienta generaba en segundos imágenes manipuladas de mujeres reales. Investigaciones independientes señalaron que, en los momentos de mayor uso, se llegaron a producir hasta 6.500 imágenes por hora. Por ello, la difusión masiva y rápida de estos deepfakes provocó una oleada de denuncias en redes sociales, así como la intervención de medios y autoridades.

Elon Musk presentando su la herramienta de generación de imágenes mediante IA, Grok, para X.
Imagen de la presentación, por parte de Elon Musk, de la controvertida aplicación Grok, para generación de imágenes mediante IA, en X.

Respuesta de la plataforma y sus limitaciones

Ante la presión pública, la empresa propietaria de la red social X, restringió temporalmente la función gratuita de generación de imágenes, limitándola tan sólo a suscriptores de pago. La medida, sin embargo, resultó fácil de eludir mediante otras vías de acceso, por lo que tuvo un efecto limitado. Más adelante, la cuenta oficial de la red social, anunció la adopción de “medidas tecnológicas”, para impedir la edición de imágenes de personas reales, afirmando que ciertas funciones quedarían disponibles sólo para usuarios de pago, presentándolo como una capa adicional de protección y trazabilidad. Pero en la práctica, la plataforma no asumió responsabilidad alguna, sobre el origen del problema, ni abordó de forma efectiva la raíz: la propia herramienta de generación.

El vacío legal y sus consecuencias prácticas

Como se ha podido constatar, la legislación no ha seguido el ritmo de la tecnología. En muchos ordenamientos, incluida España, no existe todavía un tipo penal específico y efectivo, que contemple la creación de deepfakes; en la práctica se encuadran en figuras como las injurias cuando se considera que el daño es grave. La gravedad depende de factores como la difusión pública, la relación entre autor y víctima, la edad de la persona afectada o el contenido del deepfake. Por ello, una imagen de una mujer en bikini generada por IA sólo será perseguible penalmente en supuestos concretos, lo que deja a la mayoría de víctimas, sin protección efectiva.

Ante la detección de un deepfake, expertos en derecho recomiendan actuar con rapidez: capturar pruebas (perfil, imagen, fecha) y denunciar ante la policía o el juzgado. La ley española ha introducido medidas procesales para ordenar la retirada inmediata de contenido delictivo en internet, como diligencia prioritaria, pero su aplicación real se ve dificultada por la saturación judicial y la falta de recursos. Sin una mayor presión estatal sobre las plataformas y sin medios suficientes para investigar y perseguir este tipo de delitos, se genera una sensación de impunidad entre los agresores y de vulnerabilidad, entre las mujeres.

Imagen de una mujer, generada mediante IA.
La IA generativa, puede crear imágenes de mujeres, lo cual no justifica el uso de dichas herramientas para la manipulación de imágenes de mujeres reales, sin su consentimiento.

Deepfakes: poder y control

Publicar deepfakes no es sólo un acto sexualizado: es una forma de ejercer poder y control sobre los cuerpos de las mujeres afectadas. La viralización de imágenes manipuladas, los insultos y las amenazas, forman parte de un ecosistema que busca someter y silenciar a mujeres en el espacio público digital.

Combatir esta violencia exige cambiar el foco: dejar de ver la filtración de contenido íntimo como una vergüenza de la víctima y reconocerla como una agresión que vulnera la libertad sexual y la dignidad. También, implica cuestionar la legitimidad y el poder de las grandes plataformas y apostar por alternativas: por ejemplo, iniciativas de plataformas descentralizadas y no comerciales, que buscan modelos de internet distintos al dominio comercial de los tecnomagnates.

Conclusión y pasos a seguir

El auge de los deepfakes revela una combinación peligrosa: herramientas accesibles y potentes, respuestas corporativas insuficientes y marcos legales desactualizados. Por ello, para proteger a las mujeres es necesario actuar en varios frentes: mediante una regulación clara y específica, mayor exigencia y responsabilidad a las plataformas, recursos para la policía y la justicia, así como estrategias sociales, que deslegitimen a los perpetradores y apoyen a las víctimas. Al mismo tiempo, es urgente imaginar y construir alternativas digitales que prioricen la seguridad, la privacidad y la autonomía de las personas, frente a la mercantilización de la imagen.


Descubre más desde STI 2020 ®

Suscríbete y recibe las últimas entradas en tu correo electrónico.