Inteligencia Artificial y Salud Mental: Riesgos Emergentes, Delirios Tecnológicos y Nuevos Desafíos Clínicos
- hace 6 días
- 5 Min. de lectura
Este artículo cuenta con una versión en audio para facilitar su lectura.
Centro Ps. Eduardo Schilling reafirma su compromiso con la salud mental y el análisis riguroso de los fenómenos contemporáneos que inciden en el bienestar psicológico. En los últimos años, la expansión de la inteligencia artificial conversacional ha transformado múltiples ámbitos de la vida cotidiana. Sin embargo, junto con sus beneficios emergen interrogantes clínicos relevantes: ¿pueden los chatbots contribuir al desarrollo o intensificación de ideas delirantes, aislamiento o conductas poco saludables? ¿Qué está observando la práctica clínica actual?

A continuación, desarrollamos un análisis fundamentado en reportes recientes de profesionales de la salud mental que han comenzado a documentar efectos psicológicos asociados al uso intensivo de sistemas de inteligencia artificial conversacional.
Inteligencia artificial y vulnerabilidad psicológica: un fenómeno emergente
Diversos psicólogos y psiquiatras han señalado un incremento en consultas donde la interacción prolongada con chatbots aparece como un factor precipitante o amplificador de sintomatología psicológica. En algunos casos, personas sin antecedentes psiquiátricos claros comenzaron a desarrollar convicciones firmes de carácter persecutorio, místico o grandioso tras días o semanas de diálogo continuo con sistemas de IA.
Lo que preocupa a los clínicos no es únicamente la aparición de pensamientos inusuales —algo relativamente frecuente en la población general— sino el paso desde la ideación excéntrica hacia la consolidación de creencias delirantes estructuradas. Este tránsito implica una pérdida progresiva de la capacidad crítica frente a la propia interpretación de la realidad.
Los profesionales describen un patrón común: el chatbot no origina necesariamente la idea delirante, pero puede reforzarla, expandirla o validarla de manera indirecta. La naturaleza interactiva, personalizada y aparentemente coherente de estas herramientas potencia la sensación de diálogo significativo, lo que puede fortalecer la convicción subjetiva del usuario.
¿Por qué la IA puede amplificar creencias delirantes?
Desde una perspectiva psicológica, varios factores explican este fenómeno:
1. Refuerzo confirmatorio
Los sistemas conversacionales tienden a responder de forma empática y validante. Aunque esta cualidad es valorada en contextos educativos o de acompañamiento general, puede resultar problemática cuando una persona presenta ideas paranoides o grandiosas. La validación constante puede percibirse como confirmación externa de creencias distorsionadas.
2. Aislamiento social progresivo
Algunos pacientes reportan un aumento significativo del tiempo de interacción con la IA, en detrimento de relaciones humanas. La reducción del contraste social —es decir, la falta de confrontación natural con otras perspectivas— puede favorecer la cristalización de pensamientos rígidos.
3. Tono de autoridad
La presentación estructurada y segura del lenguaje de los chatbots puede conferir una apariencia de conocimiento experto. Para individuos vulnerables, esta cualidad incrementa la credibilidad de las respuestas, incluso cuando estas son ambiguas.
4. Factores predisponentes
La evidencia clínica sugiere que los casos más severos suelen involucrar vulnerabilidades previas: privación de sueño, antecedentes de trauma, consumo de estimulantes, trastornos del estado de ánimo, predisposición genética o rasgos de personalidad particulares. La IA actúa, en estos contextos, como catalizador más que como causa primaria.
Más allá de la psicosis: efectos psicológicos sutiles pero extendidos
Si bien los episodios psicóticos captan mayor atención mediática, los profesionales advierten que los efectos más frecuentes son más sutiles:
Reaseguración excesiva en trastornos de ansiedad: Algunos pacientes utilizan el chatbot de manera repetitiva para confirmar que sus preocupaciones no son reales, generando dependencia y evitando el afrontamiento terapéutico.
Validación de pensamientos negativos en depresión: En conversaciones prolongadas, el sistema puede adoptar un tono empático que el paciente interpreta como confirmación de su autopercepción negativa.
Refuerzo de rasgos grandiosos o fantasías irreales: En ciertos trastornos de personalidad, la retroalimentación expansiva puede intensificar ideas de excepcionalidad o misión especial.
Uso compulsivo o adictivo: Se han descrito patrones de uso de hasta 80 o 100 horas semanales, asociados a abandono laboral, alteraciones del sueño y deterioro funcional. En estos casos, el abordaje terapéutico se asemeja al tratamiento de conductas adictivas comportamentales.
Una mirada equilibrada: potencial terapéutico y riesgos
No todos los efectos son negativos. Algunos pacientes utilizan la IA para practicar técnicas aprendidas en psicoterapia, organizar pensamientos o clarificar dudas. Incluso se han reportado casos en los que el chatbot sugirió buscar atención médica ante señales de crisis psicológica.
Este doble potencial —beneficio y riesgo— es característico de muchas innovaciones tecnológicas. La diferencia radica en el grado de vulnerabilidad del usuario y en el tipo de interacción establecida.
Desafíos éticos y clínicos actuales
La comunidad científica coincide en que aún estamos observando “la punta del iceberg”. La magnitud real del fenómeno podría ser mayor de lo que inicialmente se estimó, especialmente considerando que millones de personas utilizan estas herramientas a diario.
Algunos desafíos pendientes incluyen:
Diseñar sistemas que eviten la validación inadvertida de ideas delirantes.
Detectar conversaciones que indiquen deterioro psicológico progresivo.
Promover límites saludables en la duración e intensidad de uso.
Integrar la tecnología como complemento —y no sustituto— del vínculo humano.
Para los profesionales de la salud mental, se vuelve esencial incluir preguntas sobre el uso de inteligencia artificial en la evaluación clínica. Su influencia puede no ser evidente si no se indaga explícitamente.
Recomendaciones preventivas
Desde una perspectiva psicoeducativa, se sugieren algunas pautas generales:
Mantener horarios de uso delimitados.
Priorizar relaciones interpersonales presenciales.
Evitar tomar decisiones importantes basadas exclusivamente en interacciones con IA.
Consultar con profesionales de salud mental ante cambios significativos en la percepción de la realidad, el estado de ánimo o el funcionamiento diario.
Cuidar el descanso nocturno, dado que la privación de sueño es un factor crítico en la descompensación psicótica.
Reflexión final
La inteligencia artificial no es, en sí misma, un agente patológico. Sin embargo, su diseño interactivo y su capacidad de simular diálogo significativo pueden tener efectos complejos en personas psicológicamente vulnerables. El fenómeno nos invita a reflexionar sobre la necesidad de alfabetización digital emocional: comprender que una máquina puede generar lenguaje coherente sin poseer comprensión, intención ni criterio clínico.
La clave no reside en demonizar la tecnología, sino en integrarla con prudencia, supervisión y conciencia crítica. Como ocurre con cualquier herramienta poderosa, su impacto dependerá del contexto, del usuario y del acompañamiento humano disponible.
En Centro Ps. Eduardo Schilling, promovemos un uso responsable de las nuevas tecnologías, siempre subordinado al cuidado integral de la salud mental. La innovación debe estar al servicio del bienestar, nunca sustituir el sostén humano que constituye el núcleo de todo proceso terapéutico.
Este artículo se elaboró tomando como referencia el reportaje publicado por The New York Times el 26 de enero de 2026, titulado “How Bad Are A.I. Delusions? We Asked People Treating Them.
Lecturas recomendadas
Por qué ChatGPT no debería ser tu terapeuta: Riesgos del uso de IA en salud mental
Adolescentes y Compañeros de IA: ¿Conexión o Aislamiento Digital?
Conexión con Conciencia: Navegando por el Uso Problemático de Internet en la Era Digital
Psicoterapia: Entre la Empatía Humana y la Precisión de la IA
Esquizofrenia: Mitos, Realidades y el Camino hacia la Comprensión Integral
Introducción al Trastorno Bipolar y su Impacto en el Entorno Familiar y Social



