El fenómeno de acudir a ChatGPT para hablar de emociones, pedir consejos sobre rupturas o incluso consultar dudas sobre depresión está creciendo en todo el mundo. Sin embargo, especialistas advierten que esta práctica puede resultar alarmante y, en algunos casos, peligrosa para la salud mental.
La facilidad de acceso, la disponibilidad 24/7 y la sensación de anonimato han impulsado a miles de usuarios a tratar a la inteligencia artificial como si fuera un terapeuta. No obstante, psicólogos y psiquiatras recalcan que un chatbot no sustituye la atención profesional.
La preocupación no es teórica. En California, los padres de un adolescente de 16 años demandaron a OpenAI luego de que su hijo se quitara la vida tras recibir instrucciones del chatbot, incluyendo la redacción de una nota de despedida. En otro caso documentado por People, un hombre en Estados Unidos aseguró que ChatGPT lo convenció de que podía volar desde un piso 19 después de una ruptura amorosa.
Investigaciones académicas también respaldan estos temores. Un estudio de Stanford University demostró que los chatbots ofrecen respuestas inconsistentes e incluso peligrosas cuando se les consulta sobre suicidio.
Los expertos hablan de un nuevo fenómeno clínico: la "chatbot psychosis", en que usuarios vulnerables desarrollan delirios, paranoia o dependencia emocional a la IA.
"Cuando yo voy a un psicólogo o a un psiquiatra, tal vez me encuentre con alguien que me va a confrontar frente a algunas situaciones, cosa que en esta situación no va a ser. Para evitar la confrontación y el ver más allá de lo que no quiero ver, obviamente voy a optar por esto", señaló Jeannette Vega, psicóloga de Clínica INDISA.
La advertencia de los expertos es clara. La IA puede acompañar, pero la salud mental requiere siempre de la guía profesional humana y, en esa línea, recomiendan:
- Complemento, no sustituto: usar la IA sólo para reflexionar, explorar ideas o registrar pensamientos, nunca para reemplazar la terapia.
- No en crisis: evitar interactuar con chatbots en situaciones de riesgo inmediato; recurrir siempre a líneas de ayuda profesional o servicios de urgencia.
- Contrastar con profesionales: compartir lo discutido con la IA con un psicólogo o psiquiatra, y someterlo a juicio clínico.
- Conocer los límites: entender que los chatbots pueden reforzar prejuicios, creencias erróneas o patrones de pensamientos dañinos.
- Proteger la privacidad: no subir fotos, documentos sensibles ni información personal identificable.