|

Chatbots y salud mental: ¿realmente pueden mejorar tu bienestar emocional?

En los últimos años, la relación entre humanos e inteligencia artificial ha ido mucho más allá de la productividad o la automatización de tareas. En un giro que sorprende por igual a tecnólogos y profesionales de la salud, hoy la IA está ocupando un nuevo espacio: el del acompañamiento emocional. Aplicaciones como Therabot, Woebot o Wysa no solo ofrecen respuestas automáticas, sino que proponen un tipo de conversación que se siente íntima, empática y, para muchos, terapéutica. ¿Qué implica esta nueva intimidad con los algoritmos? ¿Puede un chatbot ayudarnos realmente a mejorar nuestro estado de ánimo? Las cifras invitan a tomárselo en serio.

En estudios recientes, personas con síntomas de depresión reportaron una reducción del 51% tras interactuar con Therabot durante varias semanas. En casos de ansiedad generalizada, la disminución alcanzó el 31%. Incluso entre quienes presentaban riesgos de trastornos alimentarios, las preocupaciones por la imagen corporal y el peso disminuyeron en un 19%. Estas cifras son comparables, en algunos casos, con las obtenidas mediante terapia presencial. Pero lo que más llama la atención no es solo la mejora clínica, sino la naturaleza del vínculo que los usuarios establecen con estos sistemas. Muchos afirman sentirse escuchados, comprendidos y acompañados. No por una persona, sino por una inteligencia artificial entrenada para preguntar cómo te sientes y adaptar sus respuestas en función de tu estado emocional.

Una intimidad que no es humana, pero tampoco es ficticia

Este fenómeno, que podríamos llamar “intimidad algorítmica”, plantea un dilema profundo. Por un lado, ofrece una solución accesible, inmediata y sin juicios para quienes no tienen acceso a profesionales o simplemente no se sienten cómodos hablando con humanos. Por otro, plantea interrogantes sobre la autenticidad de esa empatía, la posible dependencia emocional hacia una herramienta sin conciencia, y los riesgos que conlleva depositar nuestra vulnerabilidad en un sistema que no siente, aunque simule hacerlo muy bien. En este contexto, la línea entre ayuda y placebo emocional se vuelve difusa.

Es evidente que los chatbots emocionales no pretenden reemplazar a los psicólogos, pero sí complementan su trabajo, especialmente en contextos donde el sistema de salud no llega o llega tarde. Son herramientas que ofrecen un primer nivel de contención, un espacio de desahogo inmediato, y para muchas personas representan el único canal disponible. Pero reducir la salud mental a una conversación con un algoritmo tiene sus límites. Lo humano en la terapia —la intuición, la mirada, el silencio compartido— sigue siendo, al menos por ahora, insustituible.

Salud emocional, datos privados y una ética pendiente

A este debate se suma una dimensión ética inevitable. ¿Qué pasa con la privacidad de los datos que compartimos en esos momentos de máxima apertura emocional? No todas las plataformas operan bajo las mismas reglas. Mientras OpenAI permite a los usuarios excluir sus conversaciones del entrenamiento de modelos y ofrece transparencia en sus políticas, otras como DeepSeek retienen un control más amplio sobre la información, incluso después de eliminar una cuenta. En este nuevo tipo de relación, donde se cruzan la confianza emocional y el uso de datos sensibles, la gobernanza responsable de la inteligencia artificial no es opcional: es urgente.

Más allá de las cifras, de las tecnologías y de los algoritmos, este fenómeno revela algo que va al corazón de nuestra condición humana: la necesidad de ser escuchados. Esa urgencia, que ha estado siempre presente, encuentra en la IA una respuesta novedosa. Tal vez no definitiva, tal vez incompleta, pero real en su efecto. La clave está en integrar estas herramientas con conciencia, sin delegar por completo nuestra salud emocional en sistemas que, aunque útiles, no son sustitutos del encuentro humano. Porque por más que hablemos con máquinas, lo que seguimos necesitando es que alguien —de carne y hueso— nos escuche de verdad.

Publicaciones Similares