Es mucho lo que se habla en los últimos tiempos sobre la IA (Inteligencia Artificial). Tanto por lo novedosa que resulta esta tecnología, como por los riesgos que acechan respecto a su uso contra la inteligencia humana. Igual que esta tecnología puede ser una herramienta muy valiosa para el trabajo a desempeñar por el ser humano, también puede usarse para generar estafas más sofisticadas, pornografía e incluso armas bioquímicas. Nos encontramos ante el lado oscuro de la IA, que vamos a conocer un poco más en este artículo.
Son muchas las variantes de la IA generativa que ya están presentes en el mundo tecnológico, así como las diferentes facetas que nos pueden llegar a ofrecer, pero al margen de sus pros y contras de los que se viene hablando bastante de un tiempo a esta parte, surgen ahora nuevos modelos de IA concebidos para el desempeño de tareas maliciosas.
FraudGPT, se ha presentado en sociedad como el hermano maligno de ChatGPT. Se promociona en la dark web y es capaz de escribir mensajes haciéndose pasar por un banco, crear malware o mostrar sitios web susceptibles de ser atacados, según informó la plataforma de análisis de datos Netenrich. Otras herramientas generativas como es el caso de WormGPT prometen facilitar el trabajo a los ciberdelincuentes.
Es decir, que la inteligencia artificial generativa ya está mostrando sus alternativas en el mercado para ser usada con fines maliciosos: desde generar estafas sofisticadas, hasta crear pornografía no consentida, campañas de desinformación e incluso armas bioquímicas.
Se puede decir que los ciberdelincuentes no han tardado en aprovechar las capacidades de la inteligencia artificial generativa, para conseguir sus propósitos maliciosos y lo están consiguiendo. Desde elaborar campañas de phising cada vez más sofisticadas, hasta generar deepfakes (videos manipulados mediante inteligencia artificial, alterando o sustituyendo la cara o la voz de una persona).
Con estas nuevas herramientas, de nada sirve ya aconsejar a los usuarios buscar errores gramaticales, de contexto y sintaxis para poder detectar correos maliciosos, por ejemplo. Ahora, los atacantes lo tienen mucho más fácil. Tan sólo con pedirle a una de estas herramientas que genere un email urgente y convincente para actualizar la información de cuentas y rutas bancarias, lo tienen.
Se pueden crear además, correos electrónicos en muchos idiomas. Ya es posible que un LLM (un modelo de lenguaje colosal o Largue Language Model), que usa el aprendizaje profundo y se entrena con grandes cantidades de datos, lea primero todos los perfiles de LinkedIn de una organización, para después redactar un correo electrónico muy específico para cada empleado. Todo ello, logrado en un impecable inglés o alemán, adaptado a los intereses de cada destinatario, como ya ha advertido el Centro de Seguridad Cibernética holandés.
El Catedrático de Derecho y Ética de la Sociedad Digital de la Nueva Escuela Europea de Estudios Digitales, Philipp Hacker, ya explicó que la inteligencia artificial generativa puede usarse para crear un malware más efectivo, más difícil de detectar y capaz de atacar sistemas o vulnerabilidades específicas. Según afirma: “Si bien todavía es probable que se requiera una gran experiencia humana para desarrollar virus avanzados, la inteligencia artificial puede ser de gran ayuda en las etapas iniciales de la creación de malware”.
Aunque la implementación de estas técnicas aún esté lejos de estar generalizada, es evidente que herramientas como FraudGPT o WormGPT pueden suponer un serio problema de cara a un futuro no muy lejano. Pues, no debemos olvidar que el sector tecnológico es capaz de avanzar a mayor ritmo que otras especialidades científicas.
Con la ayuda de estas u otras herramientas que irán emergiendo, delincuentes sin conocimientos técnicos previos serán capaces de preparar campañas maliciosas de todo tipo, con una alta probabilidad de éxito, lo que para usuarios y empresas supondrá tener que enfrentarse a un número de amenazas mayor.
Generación de audio, imágenes, vídeos, etc.
Lo que ya está demostrado es que cuanto más convincente sea una estafa, más probabilidades existen de que alguien se convierta en víctima. Ya hay quienes usan la inteligencia artificial para sintetizar audio. Sin ir más lejos, estafas como las de “pig butchering” podrían pasar de los mensajes de texto a las llamadas, aumentando la capacidad de persuasión de esta técnica.
La estafa traducida al español como “carnicería de cerdos”, se denomina así porque los atacantes ‘engordan’ a sus víctimas y se ganan su confianza, para luego quitarles todo lo que pueden. Aunque suele estar relacionada con las criptomonedas, también se puede aplicar a otros intercambios financieros.
Los investigadores de Proofpoint, han comprobado ya como ciberdelincuentes emplean esta tecnología para engañar a funcionarios gubernamentales. Algo que se muestra en su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades.
La técnica consiste en realizar videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados, mediante inteligencia artificial y otras técnicas, para que las víctimas cuenten información y ridiculizarlas después, compartiendo la grabación en redes sociales u otros medios.
La inteligencia artificial generativa, también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o el Presidente del Partido Popular Alberto Núñez Feijóo. Después, dichos deepfakes se usan para promocionar inversiones en criptomonedas, que suelen acabar con la pérdida del dinero invertido.
Desde pornografía hasta armas bioquímicas, de momento
Ya se ha podido comprobar el uso de inteligencia artificial generativa para crear pornografía. Este abuso se dirige casi exclusivamente a mujeres y provoca graves daños personales y profesionales. Se hizo público hace unos meses, como decenas de menores de Extremadura denunciaron que circulaban fotos de falsos desnudos suyos creadas mediante inteligencia artificial. También han sufrido ataques similares, celebridades como Rosalía o Laura Escanes.

Dicha tecnología, se ha usado también para crear imágenes falsas que retratan a inmigrantes amenazantes, con el objetivo de influir en la opinión pública o resultados electorales, y crear campañas de desinformación más sofisticadas y convincentes, a gran escala.
Tras los incendios forestales que arrasaron la isla de Maui el pasado mes de agosto, algunas publicaciones indicaban sin ningún tipo de evidencia que los mismos habían sido causados por un “arma climática secreta» probada por los Estados Unidos. Estos mensajes, formaban parte de una campaña liderada por China e incluían imágenes aparentemente creadas con inteligencia artificial, según publicó el diario The New York Times.
El uso potencial de la inteligencia artificial generativa no acaba aquí. Un artículo publicado en la revista Nature Machine Intelligence indica que los modelos avanzados de inteligencia artificial podrían ayudar en la creación de armas bioquímicas. Lo que indudablemente, representa un peligro global.
Además, los algoritmos usados pueden infiltrarse en el software de infraestructuras críticas, lo que hace que dichas amenazas resulten difíciles de predecir y contrarrestar, con las leyes y regulaciones existentes.
CONCLUSIÓN
Aunque ya existen soluciones que utilizan el aprendizaje automático y otras técnicas para poder detectar y bloquear los ataques más sofisticados, no obstante, la educación y concienciación de los usuarios es vital, para que puedan reconocer los emails de phishing y otras amenazas.
Mitigar los riesgos asociados al uso malicioso de la inteligencia artificial generativa, requiere un enfoque que combine medidas regulatorias, soluciones tecnológicas y directrices éticas.
Entre las posibles medidas, se encuentran la implementación de equipos independientes que prueben este tipo de herramientas para identificar vulnerabilidades y posibles usos indebidos, o bien la prohibición de ciertos modelos de código abierto.
La regulación y el control de la inteligencia artificial (IA), son temas cruciales en la actualidad, especialmente cuando se trata de abordar los riesgos asociados con su uso malicioso. Estos son algunos ejemplos de medidas que se están tomando:
- Leyes y regulaciones específicas: Diversos países y organizaciones internacionales están promulgando leyes y regulaciones para supervisar y controlar el desarrollo y uso de la IA. Por ejemplo, la Unión Europea está evaluando un nuevo marco legal para fortalecer las reglas sobre la calidad de los datos, la transparencia, la supervisión humana y la responsabilidad en el uso de la IA. Esta regulación entrará en vigor en 2024 y busca abordar los riesgos generados por los distintos usos de la IA mediante un conjunto de normas complementarias y flexibles.
- Identificación de aplicaciones de alto riesgo: La Ley de Inteligencia Artificial de la UE propone una lista de solicitudes de alto riesgo y establece requisitos claros para los sistemas de IA en estas aplicaciones. Además, se definen obligaciones específicas tanto para los usuarios de IA como para los proveedores de aplicaciones de alto riesgo.
- Prevención de ataques maliciosos: Para mitigar los riesgos de seguridad, es fundamental proteger el proceso de desarrollo de la IA, ocultar los parámetros del modelo, limitar el acceso a este y establecer sistemas de monitorización para detectar inputs maliciosos durante la fase de entrenamiento del modelo.
En resumen, la regulación y las medidas tecnológicas están destinadas a garantizar un uso ético y seguro de la IA, minimizando los riesgos asociados con su aplicación maliciosa.
En realidad, abordar estos riesgos resulta complejo, ya que existen importantes compensaciones, entre los diversos objetivos éticos de la inteligencia artificial y la viabilidad de implementar ciertas medidas.


Deja un comentario