IA y salud mental: la nueva alerta por el uso de chatbots como compañía
El uso de chatbots de inteligencia artificial como fuente de compañía y apoyo emocional comienza a encender alertas en la comunidad médica. Expertos del Great Ormond Street Hospital for Children, en el Reino Unido, advierten que cada vez más personas —en especial jóvenes— recurren a sistemas como ChatGPT, Claude o Copilot como confidentes, una tendencia que podría tener implicaciones profundas para la salud mental.
En un análisis publicado en la edición navideña de The BMJ, los especialistas señalan que existe el riesgo de estar frente a una generación que aprende a formar vínculos emocionales con entidades que carecen de empatía, cuidado y sintonía relacional humanas. En su opinión, esta dinámica refuerza la urgencia de aplicar estrategias basadas en evidencia para combatir el aislamiento social y la soledad.
El contexto no es menor. En 2023, el director general de Salud Pública de Estados Unidos calificó la soledad como una epidemia y un problema de salud pública comparable al tabaquismo y la obesidad. En el Reino Unido, casi la mitad de los adultos reporta sentirse sola al menos ocasionalmente, mientras que uno de cada diez experimenta soledad crónica. Los jóvenes de entre 16 y 24 años figuran entre los grupos más vulnerables.
Ante este escenario, los autores explican que no resulta sorprendente que muchas personas busquen fuentes alternativas de compañía. ChatGPT, por ejemplo, cuenta con alrededor de 810 millones de usuarios activos semanales en todo el mundo, y diversos reportes sitúan la terapia y la compañía entre las principales razones de uso.
La evidencia en adolescentes refuerza la preocupación. Un estudio citado en el artículo indica que un tercio de los jóvenes utiliza compañeros de IA para interactuar socialmente; uno de cada diez considera más satisfactorias las conversaciones con IA que las humanas, y uno de cada tres elegiría hablar con un chatbot antes que con una persona para temas serios.
Frente a estos hallazgos, los expertos sugieren que el uso problemático de chatbots sea considerado un nuevo factor de riesgo ambiental en la evaluación clínica de pacientes con alteraciones del estado mental. Proponen que los médicos inicien con preguntas empáticas sobre el uso de IA, seguidas —si es necesario— de evaluaciones más detalladas sobre dependencia, uso compulsivo y apego emocional, especialmente en periodos vacacionales.
Aunque reconocen que la inteligencia artificial puede mejorar la accesibilidad y ofrecer apoyo a personas que se sienten solas, los autores subrayan la necesidad de estudios empíricos, marcos regulatorios sólidos y enfoques clínicos que prioricen el bienestar a largo plazo por encima de métricas de participación.
Comentarios
Publicar un comentario