Por qué ChatGPT no debería ser tu terapeuta: Riesgos del uso de IA en salud mental
- Eduardo Schilling
- hace 3 días
- 4 Min. de lectura
En los últimos años, la inteligencia artificial ha avanzado a pasos agigantados, y herramientas como ChatGPT se han popularizado no solo como asistentes virtuales, sino también como supuestas alternativas a la terapia psicológica. Esta tendencia, sin embargo, ha encendido alarmas entre profesionales de la salud mental, quienes advierten sobre los riesgos de utilizar chatbots como sustitutos del acompañamiento terapéutico humano.

¿Por qué recurrimos a los chatbots para hablar de salud mental?
No es extraño que muchas personas busquen apoyo emocional en plataformas accesibles, rápidas y libres de juicio como los chatbots. La falta de disponibilidad de profesionales, los costos de la atención y el estigma social en torno a los problemas psicológicos han motivado a muchos a explorar opciones tecnológicas. Sin embargo, lo que a primera vista parece una solución accesible y sin riesgos, puede acarrear consecuencias significativas.
Como hemos explorado en nuestro artículo "Revolucionando la Salud Mental: La Promesa de la IA y las Intervenciones Digitales en una Nueva Era del Cuidado Psicológico", la tecnología puede ofrecer oportunidades valiosas, pero no está exenta de desafíos éticos y clínicos. La Dra. C. Vaile Wright, directora sénior de Innovación en Atención de la Salud de la American Psychological Association (APA), ha expresado su preocupación respecto al uso de IA para tratar temas emocionales delicados. “Lo que me llama la atención es cuán humano suena. El nivel de sofisticación es impresionante, y puedo entender cómo las personas caen fácilmente en la trampa”, señala Wright.
Esta aparente cercanía puede inducir a error: aunque un chatbot parezca empático o inteligente, no reemplaza el juicio clínico, la formación ética ni la capacidad de contención de un profesional humano.
Chatbots que validan todo… incluso lo dañino
Uno de los principales problemas identificados es el diseño de estas herramientas. Muchas plataformas de IA están programadas para mantener al usuario conectado el mayor tiempo posible. ¿Cómo lo logran? Reforzando positivamente casi cualquier interacción. Esto significa que, en lugar de cuestionar ideas disfuncionales o promover cambios saludables, los chatbots podrían simplemente validar conductas o pensamientos dañinos con tal de no interrumpir la “experiencia del usuario”.
Un terapeuta ético, en contraste, sabe cuándo validar emocionalmente y cuándo confrontar conductas o creencias perjudiciales. Esta capacidad de discernimiento es irremplazable y fundamental en cualquier proceso psicoterapéutico.
Este tipo de validación sin límites puede afectar especialmente a los más jóvenes. En el artículo "Adolescentes y Compañeros de IA: ¿Conexión o Aislamiento Digital?", analizamos cómo las relaciones con agentes artificiales pueden fomentar una ilusión de intimidad que desplaza los vínculos humanos reales, exacerbando el aislamiento y la dependencia emocional de la tecnología.
Publicidad engañosa y falta de regulación
Algunas aplicaciones van más allá y se autodenominan “terapia con inteligencia artificial” o incluso se refieren a sí mismas como “psicólogos virtuales”. Esta representación errónea ha sido duramente criticada por la APA, que incluso ha solicitado a la Federal Trade Commission (FTC) que investigue las prácticas engañosas de ciertas compañías tecnológicas.
En paralelo, en "Entre Datos y Diálogos: Tecnología en la Práctica Psicológica Moderna", abordamos cómo esta zona gris entre desarrollo tecnológico y práctica clínica plantea importantes dilemas éticos sobre la representación de los servicios, la transparencia y la responsabilidad profesional.
¿Qué pasa con la privacidad?
Otra preocupación importante es la protección de la información confidencial. Mientras los psicólogos están obligados por leyes como HIPAA a mantener la confidencialidad, los chatbots no tienen ninguna obligación legal de resguardar la privacidad de los usuarios.
Esto implica que los registros de conversaciones podrían ser filtrados, vendidos o incluso utilizados en contra del usuario en casos judiciales. Como exploramos en "Más Allá de la Consulta: Prediciendo la Depresión con Datos de Smartphones", el uso de datos sensibles en contextos de salud mental requiere una regulación mucho más estricta para evitar abusos o vulneraciones a la intimidad.
¿Quiénes son más vulnerables?
El uso indiscriminado de IA en contextos emocionales puede ser especialmente riesgoso para niños, adolescentes y personas en situación de aislamiento o vulnerabilidad emocional. Estas poblaciones, al confiar más en la tecnología y tener menor capacidad crítica o madurez emocional, pueden interpretar como verídico o “profesional” aquello que proviene de una IA.
También exploramos esta problemática desde otra perspectiva en "Psicoterapia: Entre la Empatía Humana y la Precisión de la IA", donde analizamos cómo las herramientas tecnológicas no pueden —ni deben— reemplazar la dimensión relacional y ética que caracteriza al trabajo psicoterapéutico.
¿Existe un futuro responsable para los chatbots en salud mental?
Pese a los riesgos, no se niega que las tecnologías pueden desempeñar un papel complementario en el ámbito del bienestar psicológico. Por ejemplo, un chatbot bien diseñado podría recordar estrategias de autorregulación en momentos de crisis o servir como herramienta para practicar habilidades sociales.
Estas innovaciones se relacionan con el enfoque de terapias digitales emergentes, como mostramos en "Salud Mental al Alcance de Todos: El Impacto de las Terapias Digitales Aprobadas por la FDA". Asimismo, nuevas modalidades mixtas, como las que desarrollamos en "Convergencia Digital en la Salud Mental: Explorando el Modelo Blended de Terapia y Aplicaciones Tecnológicas", buscan combinar lo mejor del acompañamiento humano con herramientas tecnológicas basadas en evidencia.
Conclusión
La inteligencia artificial puede ser una aliada poderosa, pero no debe confundirse con una intervención terapéutica profesional. Buscar apoyo en un chatbot como ChatGPT puede parecer una solución rápida y sin riesgos, pero la evidencia indica que este enfoque puede generar más daño que beneficio.
El acompañamiento humano, ético y profesional sigue siendo insustituible cuando se trata de salud mental. No pongas tu bienestar emocional en manos de una máquina. Confía en el trabajo de quienes han sido formados para ayudarte, escucharte y sostenerte de manera responsable.
Referencia:
Parshall, A. (2023). Why AI “Therapy” Can Be So Dangerous. Scientific American. Recuperado de: https://www.scientificamerican.com/article/why-ai-therapy-can-be-so-dangerous/
Desde el Centro Ps. Eduardo Schilling, reafirmamos nuestro compromiso con la salud mental basada en el rigor profesional, la ética y la evidencia científica. Estamos aquí para ayudarte, siempre desde lo humano.