El tiempo - Tutiempo.net
Jueves 15 de Enero de 2026

Peligro

Cuando la inteligencia artificial se convierte en confidente: riesgos y oportunidades para la salud mental

El uso de sistemas de IA como apoyo emocional crece entre jóvenes, pero especialistas advierten sobre dependencia, sesgos y pérdida de autonomía, en un debate que exige regulación y criterios éticos claros.

8 de Enero de 2026

El avance de la inteligencia artificial abrió una escena inédita en el terreno de la salud mental. Un informe de Plan Internacional reveló que una de cada cuatro jóvenes españolas de entre 17 y 21 años utiliza sistemas de IA como confidente emocional, atraídas por respuestas inmediatas, ausencia de juicio y una escucha permanente que muchas veces no encuentran en su entorno cercano.

Plataformas conversacionales como ChatGPT o Replika son capaces de detectar patrones de lenguaje asociados a tristeza, ansiedad o desesperanza y responder con mensajes de contención. Aunque desde lo técnico estos modelos solo predicen palabras en función del contexto, el impacto psicológico es real, ya que activan circuitos neuronales vinculados al apego y la recompensa, similares a los que se ponen en juego en interacciones humanas.

El problema surge cuando esa simulación de empatía genera una ilusión de comprensión. En situaciones de vulnerabilidad emocional o soledad no deseada, la IA puede aliviar momentáneamente, pero también favorecer vínculos de dependencia. Especialistas advierten que cuanto más “humana” parece la máquina, mayor es el riesgo de olvidar que no siente ni comprende, solo imita.

Entre los principales peligros se identifican la dependencia emocional, la ansiedad tecnológica y la llamada deuda cognitiva, un fenómeno por el cual delegar la introspección y la regulación emocional en una máquina debilita la capacidad de reflexión personal. A esto se suman los sesgos algorítmicos, ya que las IA se entrenan con datos que reproducen desigualdades sociales, lo que puede trivializar o distorsionar experiencias reales de sufrimiento.

En este contexto, organismos académicos y éticos plantean la necesidad de salvaguardas emocionales obligatorias, como la identificación explícita de la IA como no humana, la activación automática de recursos de ayuda ante situaciones de riesgo y auditorías sobre el uso de datos emocionales. La próxima Ley Europea de IA, que entrará en vigor en febrero de 2026, avanza en esa dirección al exigir transparencia, supervisión humana y control ético, especialmente en áreas consideradas de alto riesgo como la salud mental.

Aun así, los especialistas coinciden en que la IA no es solo una amenaza. Bien utilizada, puede detectar de forma temprana signos de depresión o ansiedad, ampliar el acceso a atención psicológica en zonas con pocos recursos y liberar a los profesionales de tareas repetitivas, fortaleciendo la relación terapéutica. La clave está en que acompañe y complemente, sin reemplazar el vínculo humano.

 

El desafío de fondo no es hacer que las máquinas parezcan más humanas, sino evitar que las personas pierdan su humanidad al depositar en la tecnología un rol que exige sensibilidad, responsabilidad y contacto real.

Comentarios
Últimas noticias