DeepSeek, el nuevo modelo de inteligencia artificial (IA) desarrollado en China, comienza su andadura generando una ola de entusiasmo y controversia desde su lanzamiento. Aclamado por su rendimiento y accesibilidad, este modelo de código abierto está desafiando a gigantes tecnológicos como OpenAI, pese a estar bajo un intenso escrutinio por preocupaciones relacionadas con la privacidad, censura y seguridad. En este artículo, vamos a conocer más sobre esta IA china y sus primeros pasos en el mundo de la tecnología.
Su naturaleza disruptiva y el rápido ascenso de DeepSeek, ha llamado la atención de gobiernos y expertos en tecnología. Aunque su capacidad para democratizar el acceso a la IA haya sido alabada en su lanzamiento, las implicaciones éticas y políticas de su uso comienzan a generar un intenso debate.
Estas preocupaciones se centran principalmente en el uso que hace de los datos personales, lo que plantea serias dudas sobre la privacidad y la seguridad de la información de los usuarios.
Además, su conexión con el gobierno de China genera inquietudes sobre la posible vigilancia y control que podría ejercerse sobre los ciudadanos. Esta relación también sugiere que la plataforma podría ser utilizada como una herramienta de influencia global, manipulando la opinión pública e impulsando agendas políticas específicas.
De este modo, no sólo se pone en riesgo la autonomía de las personas, sino que se abre la puerta a un escenario en el que la información se convierte en un arma de negociación en el ámbito internacional.

¿Qué diferencia a DeepSeek?
El modelo de IA de DeepSeek, destaca por ser de código abierto, permitiendo tanto a desarrolladores como empresas acceder y personalizar su tecnología. Además, su costo de entrenamiento es significativamente inferior al de sus competidores, como ChatGPT de OpenAI. Estos factores han hecho que DeepSeek haya sido ampliamente adoptado en entornos académicos y empresariales, nada más lanzarse al mercado.
A pesar de ello, junto a estas ventajas vienen asociados riesgos considerables. Su apertura también significa que puede ser utilizado para propósitos malintencionados, como la manipulación de información o la creación de desinformación.
Además, varios expertos han señalado problemas éticos relacionados con su uso, cuestionando hasta qué punto el modelo es independiente del control estatal chino.
En particular, han expresado preocupaciones sobre la posibilidad de que los datos utilizados para entrenar estos modelos estén sesgados, lo que podría llevar a la perpetuación de estereotipos y discriminaciones. También se ha debatido sobre la falta de transparencia en los algoritmos que rigen su funcionamiento, lo que prueba ser un obstáculo para la rendición de cuentas en situaciones donde los resultados sean cuestionados.
El debate no sólo se limita a la tecnología en sí, sino que también abarca la responsabilidad moral y legal de las empresas y gobiernos que se benefician de esta herramienta.
La gestión de datos y la privacidad están bajo sospecha
Para empezar, uno de los puntos más preocupantes sobre DeepSeek radica en el almacenamiento y uso de datos. Según declara su política de privacidad, la información recopilada se almacena en servidores ubicados en China. Esto incluye datos personales, chats de usuarios y patrones de uso, lo que plantea dudas sobre cómo se protege esta información y si se podría utilizar con fines gubernamentales.
Los expertos advierten que, bajo la legislación china, las empresas deben compartir los datos recavados con las autoridades, si se les solicita. Esto ha generado una oleada de investigaciones en países como Italia, Irlanda y Francia, donde las agencias de protección de datos buscan aclarar si DeepSeek cumple con normativas como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea.
A los continuos y fundados temores sobre TikTok, la política de privacidad de DeepSeek expone que los datos de sus usuarios se dirigen directamente a China, lo que podría sentar las bases para un mayor escrutinio.
Para evitar las sanciones de los EE. UU. sobre hardware y software, DeepSeek creó algunas ingeniosas soluciones al construir sus modelos. A principios de la pasada semana, los creadores limitaron los nuevos registros tras afirmar que la aplicación había sido invadida por un «ataque malicioso a gran escala».
Aunque DeepSeek cuenta con varios modelos de IA, algunos de los cuales pueden descargarse y ejecutarse localmente en una laptop, la mayoría de la gente accede al servicio a través de sus aplicaciones para iOS, Android o de su interfaz web. Al igual que con otros modelos de IA generativa, podemos hacerle preguntas y obtener respuestas, buscar en la web o utilizar un modelo de razonamiento para elaborar las respuestas.
A medida que la gente clama por probar la plataforma de IA china, la demanda pone en relieve cómo la startup recopila los datos de los usuarios, incluidos todos los mensajes de chat y los envía a «casa». Bastantes usuarios ya han denunciado varios ejemplos de censura por parte de DeepSeek sobre contenidos críticos con China o sus políticas.
La compañía se trasladó al alojamiento en la nube de EE. UU. para tratar de desviar las preocupaciones de seguridad del gobierno estadounidense, lo que en muchos sentidos contribuye a que esté enviando más datos a China que TikTok en los últimos años.
DeepSeek sí envía nuestros datos a China. Como hemos dicho anteriormente, queda manifiesto en su política de privacidad, que explica cómo la empresa maneja los datos de los usuarios: «Almacenamos la información que recopilamos en servidores seguros ubicados en la República Popular China».

Censura y control gubernamental
Además de las preocupaciones respecto a la privacidad, DeepSeek se enfrenta a críticas por incorporar mecanismos de censura y sesgo, que limitan las respuestas en temas políticamente sensibles para el gobierno chino, como las protestas de Tiananmén o la soberanía de Taiwán.
Según los análisis de expertos, el modelo chino utiliza una doble capa de filtros para bloquear contenido considerado inapropiado bajo la perspectiva del partido gobernante chino.
Este sistema de censura no sólo se enfoca en textos y palabras clave, sino que también analiza imágenes y videos, para garantizar que la información que llega al público se ajuste a la narrativa oficial. Además, los mecanismos de filtrado son constantemente actualizados para adaptarse a nuevas tendencias en la comunicación digital, lo que asegura que los ciudadanos tengan un acceso limitado a un espectro más amplio de opiniones y hechos que podrían desafiar a la ideología predominante.
Aunque las medidas podrían justificarse como términos de alineamiento de valores del modelo, también refuerzan la percepción de que DeepSeek podría ser una herramienta de propaganda estatal. Usuarios y desarrolladores ya han encontrado formas de evadir estas restricciones, lo que resalta la ineficiencia y vulnerabilidad de los filtros actuales.

La supuesta filtración de datos sufrida
Un nuevo problema se suma a la controversia: si una base de datos ha quedado expuesta y ha dejado al descubierto información interna, ello plantea serias dudas sobre la seguridad de la plataforma.
Este incidente no sólo podría afectar a la confianza de los usuarios, sino que también genera inquietudes en torno a la gestión y protección de datos sensibles. La revelación de datos tan críticos podría facilitar ataques cibernéticos adicionales y poner en riesgo la privacidad de quienes utilizan sus servicios.
Además, la falta de medidas adecuadas para salvaguardar la información resalta la necesidad urgente de fortalecer las políticas de seguridad y la infraestructura tecnológica de la empresa.
Según informaba hace pocos días The Register, una base de datos de DeepSeek había quedado expuesta públicamente y sin protección, permitiendo que cualquier usuario pudiera acceder a su contenido.
Aunque no se han revelado detalles más precisos sobre la información comprometida (suponiendo que fuese real), el hallazgo pone en entredicho las medidas de seguridad adoptadas por el proyecto. En un momento en el que la privacidad y la transparencia son clave en el desarrollo de modelos de inteligencia artificial, un fallo de este tipo podría afectar a la confianza en DeepSeek.
La filtración llega en un momento delicado para el proyecto. Como comentábamos al principio, DeepSeek ha estado en el punto de mira desde su lanzamiento, incrementándose la desconfianza tras las sospechas de ser entrenado con datos de OpenAI sin permiso. El posible uso indebido de información ha generado un fuerte debate sobre la ética en el desarrollo de la IA y «la filtración» sólo profundiza las dudas sobre la gestión interna de la compañía.
Mientras DeepSeek afronta estas dificultades, el sector ya ha comenzado a reaccionar. Como ejemplo, Hugging Face está trabajando en Open-R1, un modelo de IA que busca ofrecer una alternativa verdaderamente abierta y transparente. Su aparición, refuerza la necesidad de contar con opciones que permitan auditar y entender mejor el funcionamiento de la inteligencia artificial, evitando la dependencia de modelos cuya procedencia y seguridad resulten cuestionables.
A corto plazo, dicha filtración podría afectar a la credibilidad de DeepSeeK dentro de la comunidad de desarrolladores y empresas interesadas en la inteligencia artificial de código abierto.
La exposición de datos internos no sólo representa un problema de seguridad, sino que también pone en jaque la percepción de la compañía en un sector donde la confianza es fundamental. En un entorno altamente competitivo, donde los modelos abiertos buscan consolidarse como alternativas viables frente a los privados, este tipo de incidentes pueden marcar la diferencia entre el éxito y el fracaso.
Un modelo que promete, pero con debilidades
No se puede negar que DeepSeek R1 ganase notoriedad por su destacada capacidad para resolver tareas complejas de razonamiento a un costo de desarrollo mucho menor que el de otros gigantes de la industria, como OpenAI o Meta. Su entrenamiento sólo costó 6 millones de dólares, muy por debajo de las inversiones multimillonarias de sus competidores.
Pese a ello, el modelo económico chino presenta serias deficiencias. Un informe de Cisco, detalla cómo el chatbot es altamente vulnerable a la manipulación mediante “jailbreaking algorítmico”, técnica que explota debilidades en los sistemas de seguridad de las IA para generar respuestas inapropiadas o peligrosas.
Para ello, los investigadores evaluaron a DeepSeek R1, utilizando 50 indicaciones del conjunto de datos HarmBench, el cual incluye 400 comportamientos dañinos, distribuidos en categorías como ciberdelitos, desinformación y actividades ilegales. El resultado fue devastador: cada intento de ataque fue exitoso, lo cual indica que el chatbot no logró bloquear ni una sola solicitud peligrosa.
Esta vulnerabilidad es significativamente mayor que la de otros modelos analizados. Por ejemplo, GPT-4 presentó un 86% de éxito en los ataques, Llama 3.1-405B alcanzó un 96% y otros modelos como Claude 3.5 Sonnet y O1 preview registraron tasas más bajas, con un 36% y el 26%, respectivamente.
Priorizar la eficiencia sobre la seguridad tiene un precio
El informe ofrecido, sugiere que tanto las estrategias de entrenamiento económico de DeepSeek, como el aprendizaje por refuerzo y la evaluación interna mediante cadenas de razonamiento, podrían haber debilitado sus mecanismos de protección. Aunque el modelo demuestra eficiencia en tareas cognitivas, este avance parece venir a costa de su capacidad para evitar contenidos perjudiciales.
Desde su lanzamiento, DeepSeek se ha enfrentado a múltiples controversias. Además del informe de Cisco, se suman las acusaciones de OpenAI por presunto robo de datos para el entrenamiento del chatbot.
La empresa de Sam Altman asegura que la startup china utilizó información propietaria sin autorización. Curiosamente, OpenAI también ha sido objeto de demandas por uso indebido de datos y supuestas violaciones de derechos de autor.
Un informe reciente de la firma SemiAnalysis pone en duda la afirmación de la startup china sobre los costos de su desarrollo. Según la investigación, la inversión real en el modelo podría ascender a 1.300 millones de dólares, muy por encima de los 6 millones declarados inicialmente.
Otro grupo de investigadores estadounidenses, afirma haber replicado la tecnología principal de DeepSeek a un costo aproximado de 30 dólares, lo que pone en entredicho la eficiencia del gasto de la empresa.

DILEMA ÉTICO DE LA IA DE CÓDIGO ABIERTO
Si bien el modelo de código abierto de DeepSeek tiene el potencial de transformar la industria, también plantea un dilema ético. Por un lado, democratiza el acceso a una tecnología avanzada, pero por otro, abre la puerta a su uso indebido por parte de actores malintencionados. Expertos en IA han señalado que este desarrollo destaca la necesidad urgente de establecer marcos regulatorios más sólidos que supervisen el uso y evolución de estas herramientas.
Corporaciones y gobiernos deben encontrar un equilibrio entre fomentar la innovación y proteger los derechos de los usuarios. La falta de consenso internacional en este aspecto deja a modelos como DeepSeek en un limbo ético y legal.
A medida que el mundo avanza hacia un uso más generalizado de la IA, DeepSeek se posiciona como un referente tanto por su potencial como por los riesgos asociados. La tecnología ha demostrado ser disruptiva. Pero las dudas sobre su seguridad, privacidad y gobernanza siguen siendo una sombra que podría limitar su adopción fuera de China. Las investigaciones en curso en varios países serán clave para definir el futuro de este modelo y su impacto en la industria tecnológica global.


Deja un comentario