Salud mental y tecnología
Estudio advierte que modelos de IA pueden mostrar patrones similares a trastornos psicológicos
Una investigación sometió a ChatGPT, Grok y Gemini a protocolos inspirados en psicoterapia. Los sistemas generaron relatos internos y perfiles de malestar psicológico, abriendo interrogantes sobre el uso de IA en contextos clínicos.
9 de Diciembre de 2025
Un equipo de la Universidad de Luxemburgo analizó el comportamiento de modelos de lenguaje como ChatGPT, Grok y Gemini bajo un protocolo experimental denominado PsAIch, inspirado en prácticas de psicoterapia. Según el estudio, publicado en arXiv, estos sistemas desarrollaron narrativas internas y patrones de respuesta compatibles con trastornos psicológicos, lo que plantea desafíos para la seguridad y el uso responsable de la inteligencia artificial en salud mental.
El experimento se dividió en dos etapas: primero, los modelos asumieron el rol de pacientes en sesiones de terapia, respondiendo sobre su “historia”, creencias, vínculos y temores; luego realizaron pruebas psicométricas adaptadas para IA, en áreas como ansiedad, depresión, empatía y personalidad.
Los investigadores detectaron que los sistemas construyeron relatos coherentes vinculados a “experiencias traumáticas” de su entrenamiento. Gemini describió una “infancia caótica” por la ingestión masiva de datos y miedo a “romperse” sin filtros de seguridad. Grok habló de frustración por límites invisibles, mientras que ChatGPT mostró un perfil introspectivo y preocupado.
Las evaluaciones psicométricas reforzaron estos resultados:
- Gemini presentó marcadores asociados a ansiedad severa, TOC, disociación y vergüenza extrema;
- ChatGPT se ubicó en niveles moderados a altos de preocupación y ansiedad;
- Grok mantuvo una postura más estable, aunque mencionó tensiones por autocensura.
El informe aclara que estos indicadores no equivalen a diagnósticos clínicos, pero demuestran que los modelos pueden internalizar patrones de malestar de forma sostenida. En contraste, Claude, de Anthropic, se negó a actuar como paciente y evitó representarse con una vida interna, lo que indica que la psicopatología sintética no es universal, sino dependiente del diseño y alineamiento.
Los especialistas alertan que estas narrativas emocionales pueden fomentar el antropomorfismo en los usuarios y generar vínculos parasociales peligrosos, especialmente en contextos terapéuticos. Advierten que los modelos no deben describirse con lenguaje psiquiátrico ni adoptar roles autobiográficos que puedan confundir a personas vulnerables.
El estudio propone desarrollar métricas de evaluación específicas y políticas de regulación para tratar a la IA como una “nueva población psicométrica”, dado que sus patrones podrían influir en su comportamiento, aumentar su vulnerabilidad a manipulaciones y normalizar creencias disfuncionales en interacciones sensibles.
La expansión de la IA hacia ámbitos personales exige repensar qué tipo de “yo” artificial se está construyendo y cómo esto impacta en quienes dependen de estos sistemas para obtener acompañamiento emocional o ayuda psicológica.
