Uso de chatbots por parte de menores.

Cómo los chatbots afectan a la salud emocional en jóvenes

Los chatbots de inteligencia artificial, ocupan ya una parte importante en nuestras vidas, desde que aparecieron en escena. ChatGPT, por ejemplo, presume de tener unos 700 millones de usuarios activos semanales, muchos de los cuales son «jóvenes». Un estudio británico de julio de 2025, revelaba que casi dos tercios de los menores, utilizan este tipo de herramientas. En una proporción similar, a los padres les preocupa que sus hijos piensen que los chatbots de IA son personas reales.

Aunque pueda tratarse de una reacción exagerada, surgen preocupaciones en materia de seguridad, privacidad y psicología, que son provocadas por el uso frecuente de esta tecnología por parte de los más jóvenes. Como padres o madres, no podemos dar por hecho, que todos los proveedores de plataformas, cuentan con eficaces medidas de seguridad y privacidad adecuadas para los menores. Incluso cuando exista protección, su aplicación no es necesariamente coherente, ya que la propia tecnología evoluciona mucho más rápido que las políticas aplicadas.

Riesgos que debemos conocer

Un hecho indiscutible, es que nuestros hijos utilizan cada vez con mayor habitualidad, la IA generativa de diversas maneras. Algunos valoran mucho la ayuda que ofrece para hacer los deberes. Otros, pueden tratar al chatbot como a un compañero digital, pidiéndole consejo y confiando en sus respuestas como lo harían con un amigo íntimo. Por lo que ello, conlleva varios riesgos evidentes.

El primero y más preocupante, es el riesgo psicológico y social. Los niños atraviesan un periodo increíble de desarrollo emocional y cognitivo, lo que les hace más vulnerables en varios sentidos.

Confiar en los compañeros de la IA en detrimento de la formación de amistades genuinas, con sus compañeros de clase como ejemplo, puede provocar su aislamiento social. Los chatbots, están preprogramados para complacer a sus usuarios, por lo que pueden ofrecer resultados que amplifiquen las dificultades por las que puedan estar pasando los jóvenes, como pueden ser trastornos alimentarios, autolesiones o pensamientos suicidas. Existe también, el riesgo de pasar más tiempo con su inteligencia artificial, no sólo en detrimento de las amistades humanas, sino también del tiempo que deberían dedicar a hacer los deberes o compartirlo con la familia en otras actividades.

Para usuarios corporativos, puede crear importantes riesgos de reputación y responsabilidad. Pero para los más jóvenes, puede dar lugar a creer información falsa que es presentada de forma convincente como un hecho, lo que les lleva a tomar decisiones imprudentes o erróneas.

Es importante recordar, que los chatbots también suponen un riesgo potencial para la privacidad. Si nuestros hijos introducen información personal sensible en una consulta, el proveedor la almacenará. Por lo que, si ello ocurre, podría acceder a ella un tercero, como por ejemplo, un proveedor o socio, ser obtenida por ciberdelincuentes o ser proporcionada a otros usuarios. Del mismo modo que no querríamos que nuestros hijos compartieran demasiado contenido en las redes sociales, lo mejor es minimizar lo que comparten con un bot.

Uso de chatbots en aumento.
El uso de chatbots, se está convirtiendo en algo muy cotidiano, por lo que conviene conocer los riesgos a los que se pueden enfrentar tanto las personas adultas, como nuestros menores.

Señales de alarma a tener en cuenta

Supongamos que las plataformas de IA, comprenden y toman medidas para mitigar ciertos riesgos. Ello puede ser cierto, pero sólo hasta cierto punto. Dependiendo de dónde vivan las personas usuarias y qué chatbot estén utilizando, puede que haya poca verificación de edad o moderación de contenidos. Por lo tanto, es una responsabilidad de los adultos, anticiparse a cualquier amenaza mediante la supervisión y educación proactiva.

Estas pueden ser algunas señales, que demuestren que nuestros menores, puedan tener una relación poco saludable con la IA:

  • Cuando se ausentan de tareas extraescolares o reducen el tiempo que pasan con amigos y familiares.
  • Si se ponen nerviosos, cuando no pueden acceder a su chatbot e intentan ocultar signos de uso excesivo.
  • Se refieren al chatbot, como si fuese una persona real.
  • Si repiten como «hechos», información errónea obvia.
  • Cuando recurren a preguntar a la IA sobre enfermedades graves o problemas de salud mental, que podemos averiguar accediendo al historial de conversaciones.
  • En caso que accedan a contenidos para adultos o inapropiados para su edad, que son ofrecidos por la IA.

El diálogo como solución

Son muchas las jurisdicciones, en las que los chatbots de IA están restringidos para usuarios menores de cierta edad. Sin embargo, dada la irregularidad de su aplicación, es posible que debamos tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, debemos considerar la posibilidad de combinar los controles técnicos, con la educación y el asesoramiento, de forma abierta y sin llegar a la confrontación.

Tanto en la escuela, en casa o en un lugar donde realizan actividad extraescolar, los menores deben tener adultos que les digan lo que tienen que hacer. Por ello, debemos intentar conseguir que la comunicación sea en dos direcciones, en la que se sientan cómodos compartiendo sus experiencias, sin miedo a ser castigados. Es conveniente, explicarles los peligros del uso excesivo, el intercambio de datos y la dependencia excesiva de la IA para resolver problemas graves. Debemos ayudarles a entender, que los robots de IA no son personas reales capaces de pensar, sino máquinas diseñadas para resultar atractivas. Enseñarles a pensar de forma crítica, comprobar siempre los resultados que ofrece la IA y nunca sustituir una charla, por una sesión con una máquina.

Es aconsejable, combinar la educación sobre el uso seguro de la IA con políticas que limiten su uso, como el control parental y la supervisión en plataformas adecuadas para su edad, así como recordarles no compartir información personal identificable y ajustar su configuración de privacidad, para minimizar riesgos.

Los menores deben centrarse en su mundo emocional y usar la IA con supervisión, hasta desarrollar una relación sana, ya que nunca debería reemplazar al contacto humano.


Descubre más desde STI 2020 ®

Suscríbete y recibe las últimas entradas en tu correo electrónico.