De la imagen de una Inteligencia Artificial invasiva que se vaticinó, obtenemos una IA ya en uso en ataques reales, más sofisticados y difíciles de detectar. Los ataques no sólo afectan a individuos, también tienen el potencial de desestabilizar instituciones, poniendo en riesgo la privacidad y seguridad de millones de personas. La evolución de estas tecnologías, ha llevado a los ciberdelincuentes a desarrollar métodos más ingeniosos, utilizando aprendizaje automático para personalizar sus estrategias y eludir defensas tradicionales. Además, la interconexión de dispositivos en el Internet de las Cosas (IoT), amplifica el impacto de estos ataques, ya que una vulnerabilidad en un solo dispositivo puede abrir la puerta a infiltraciones masivas. Por lo tanto, es esencial que empresas e individuos, se mantengan informados y adopten medidas proactivas para protegerse contra estas amenazas emergentes.
Era inevitable que la tecnología de modelos de lenguaje predictivos (LLM de sus siglas en inglés), comenzase a ser utilizada contra objetivos inocentes, después de traspasar la línea que separa el bien y el mal. De esta forma, la «tecnología buena» pasa a convertirse en la mejor aliada del ciberdelito, facilitando a los delincuentes la creación de fraudes más elaborados y difíciles de detectar.
Con cada avance en los algoritmos usados por la inteligencia artificial, las capacidades de manipulación y persuasión se han vuelto cada vez más sofisticadas, permitiendo ataques más personalizables y dirigidos. Así, lo que alguna vez se consideró un innovador desarrollo, ahora representa un arma de doble filo que, supone un riesgo para la privacidad y la seguridad de millones de usuarios, creando un escenario donde los límites de la ética se desdibujan y la confianza se ve socavada.

Restricciones de los modelos de lenguaje predictivo
Los modelos LLM presentan o deben ofrecer «barreras morales» para no hacer cosas malas, el equivalente digital del principio en medicina de «no causar daño». Si le preguntamos cómo construir un arma, por ejemplo, debe haber recibido una guía de preprocesamiento, para evitar que proporcione respuestas muy precisas que probablemente permitan utilizarlos para provocar daños.
Sin embargo, aunque no podemos preguntar directamente cómo construir un arma u obtener una imágen pornográfica, podemos aprender a realizar preguntas más elaboradas, mediante una combinación de herramientas, y de esta forma obtener la respuesta deseada.
Una forma muy hábil de hacerlo es mediante la programación, a través de consultas a la API. Algunos proyectos publicados recientemente, centran la API backend de un LLM, en el objetivo de obtener acceso root en los servidores. Otro, aprovecha el backend ChatGPT para encontrar de forma más inteligente objetivos de oportunidades para atacar más tarde.
Esa combinación de herramientas basadas en IA, con otras diseñadas para resolver otro tipo de problemas, como eludir IP ofuscadas para detectar un servidor objetivo, puede resultar muy eficaz, sobre todo a medida que se van automatizando.
En el mundo digital actual, estas tácticas se pueden utilizar para crear herramientas mashup (obra creativa en forma de canción, creada mediante la combinación de dos o más piezas musicales en una especie de collage) que identifiquen vulnerabilidades e iteren (repetir varias veces un proceso con la intención de alcanzar una meta deseada, objetivo o resultado) contra posibles exploits, sin que los modelos LLM lo detecten.
Esta opción análoga, en la que se pide a un LLM que resuelva una parte constituyente más pequeña de la tarea más amplia definida por un atacante, y luego un mashup, conforma el arma final.
Una IA ofensiva o defensiva en expansión
Los modelos de IA, pueden buscar miles de millones de líneas de código en los repositorios de software existentes, en busca de patrones de código inseguro y desarrollar munición digital que, luego pueden lanzar contra un amplio catálogo de dispositivos que ejecutan software vulnerable. De este modo, se podría obtener un nuevo lote de posibles objetivos comprometidos, con un impulso para aquellos que deseen lanzar ataques de día cero.
Resulta fácil imaginar a naciones-estado, intensificando este tipo de esfuerzos: armamento predictivo para encontrar fallos de software utilizando IA. Ello pone a los defensores en «retaguardia», y provocará una escalada de IA de defensa digital aparentemente distópica. Los defensores, crearán sus propias defensas habilitadas con IA para el blueteaming o simplemente, para evitar ser atacados. Pero, es de esperar que, los integrantes de los blueteam o defensores, estén preparados.

anticipar vulnerabilidades mediante el razonamiento
Los modelos de IA disponibles hoy en día pueden «razonar» los problemas sin dudar, reflexionando de una forma que imita el razonamiento humano. Aunque, la tecnología no evolucionará espontáneamente hasta convertirse en un socio sensible del ciberdelito a corto plazo, al haber recibido cantidades ingentes de datos a través de Internet, se puede decir que sabe lo que hace, aunque se le puede engañar con cierta fcilidad para que revele sus secretos.
Eficacia y escala de los ataques
La IA, es previsible que conseguirá hacer cada vez más con menos, llegando a prescindir de excesiva ayuda y ayudando a los ciberdelincuentes a realizar ataques muy por encima de su capacitación, permitiendo a los actores con recursos, operar a una escala sin precedentes. Los primeros presagios de lo que está por llegar, se han puesto de manifiesto como parte de los ejercicios de red team e incluso se han podido comprobar in the wild.
Lo cierto es que: la velocidad de los ataques basados en inteligencia aumentará de manera exponencial en los próximos años. Desde el momento en que se publique una CVE que pueda explotarse, o bien, se despliegue una nueva técnica de ataque, tendremos que pensar rápido y actuar con la misma celeridad.
Esto implica que las organizaciones deben estar preparadas no sólo con las herramientas adecuadas, sino también con la formación constante de su personal, así como con protocolos de respuesta que se puedan implementar de inmediato. La adaptación y anticipación serán claves, ya que cada segundo cuenta en la defensa contra estas amenazas, en constante evolución.
CONCLUSIÓN
El crecimiento acelerado de la inteligencia artificial en el ámbito de la ciberdelincuencia plantea un desafío crítico para la ciberseguridad. Lo que en un principio, fue concebido como una herramienta de innovación y progreso, hoy se ha convertido en un arma de doble filo que refuerza las tácticas delictivas, permitiendo ataques más sofisticados y difíciles de detectar.
Ante este panorama, la respuesta no sólo debe centrarse en la mejora de las defensas tecnológicas, sino también en la regulación y el desarrollo de estrategias éticas que limiten el acceso indebido a estas capacidades. La educación y la concienciación en ciberseguridad serán fundamentales para mitigar el impacto de estas amenazas emergentes y garantizar que la evolución de la IA se mantenga dentro de unos parámetros que protejan a los usuarios, las empresas y las instituciones.
Si bien, los ciberdelincuentes han encontrado en la IA un aliado poderoso, la comunidad tecnológica y los gobiernos tienen la oportunidad y responsabilidad de reforzar sus esfuerzos para contrarrestar estos riesgos.
La inteligencia artificial, utilizada de manera ética y responsable, sigue teniendo el potencial de fortalecer la ciberseguridad, en lugar de socavarla. La lucha contra el uso malintencionado de estas tecnologías apenas comienza, y el futuro dependerá de nuestra capacidad de anticipación, adaptación y cooperación.


Deja un comentario