Click acá para ir directamente al contenido

Blue Monday 2026: El 22% de los chilenos recurre a chatbots de IA cuando se siente triste

La inteligencia artificial está asumiendo un rol de apoyo emocional en el país. Especialistas en ciberseguridad advierten que compartir estados de ánimo con algoritmos puede comprometer datos sensibles.

24horas.cl

Viernes 16 de enero de 2026

Hace unos días se conmemoró el Blue Monday, considerado internacionalmente como el día más triste del año debido a factores como las deudas post fiestas y el retorno a la rutina. En este contexto, una reciente investigación de la firma de ciberseguridad Kaspersky reveló que el desahogo emocional en Chile está migrando hacia el entorno digital: el 22% de los chilenos que utiliza herramientas de inteligencia artificial afirma hablar con chatbots cuando se siente decaído o triste.

Esta tendencia es impulsada por la percepción de que la IA ofrece un entorno "seguro", disponibilidad inmediata y ausencia de juicios. No obstante, los expertos advierten que este hábito puede llevar a los usuarios a compartir información excesivamente personal con plataformas comerciales.

El cambio generacional en la gestión de emociones

El uso de la IA como soporte emocional no es uniforme en todos los rangos etarios. El fenómeno es liderado principalmente por las generaciones más jóvenes, quienes integran estas herramientas de forma natural en su vida cotidiana:

  • Generación Z y Millennials: A nivel global, el 35% de este grupo acude a la IA en momentos de malestar emocional.

  • Mayores de 55 años: Solo el 19% de las personas en este rango etario utiliza chatbots para estos fines.

  • Este cambio refleja una nueva forma de gestionar las emociones, donde a menudo no se dimensionan las implicaciones de privacidad al interactuar con sistemas que almacenan y analizan cada conversación.

Riesgos de privacidad y ciberseguridad

A pesar de la aparente intimidad de la charla, la mayoría de estos chatbots pertenecen a empresas que recopilan datos para mejorar servicios o personalizar experiencias. María Isabel Manjarrez, investigadora de Kaspersky, señala que "al ‘hablar’ con chatbots de IA sin cautela, los usuarios pueden enfrentar riesgos de privacidad".

Entre los peligros identificados se encuentran posibles filtraciones de conversaciones personales ante vulnerabilidades del sistema y la existencia de bots falsos diseñados para el robo de identidad o extorsión. Además, los expertos subrayan que la respuesta de una IA no reemplaza bajo ninguna circunstancia el acompañamiento de un profesional de la salud mental.

Guía de autocuidado digital 

Si decide interactuar con estas herramientas, se recomiendan cuatro medidas básicas de protección:

  • Revisar políticas de privacidad: Verificar si las interacciones se utilizan para entrenar modelos de IA o para publicidad personalizada.

  • Evitar datos identificables: No compartir nombres completos, direcciones, números de teléfono o información financiera.

  • Contrastar la información: Las respuestas de la IA pueden ser imprecisas o sesgadas, por lo que siempre se debe buscar apoyo especializado en temas sensibles.

  • Usar plataformas oficiales: Evitar bots anónimos o desconocidos que podrían estar diseñados para recolectar datos de forma maliciosa.

La seguridad digital se posiciona así como un componente esencial del autocuidado personal en la era de la inteligencia artificial.