El uso de herramientas de inteligencia artificial como apoyo emocional se ha disparado en los últimos años. Cada vez más personas recurren a chatbots para hablar de ansiedad, problemas de pareja o situaciones laborales, en busca de respuestas inmediatas y accesibles. Sin embargo, un reciente estudio académico encendió las alarmas sobre los riesgos de convertir estas plataformas en sustitutos de la terapia profesional.
La investigación, realizada en la Universidad de Brown y difundida por Science Daily, advierte una “seria alarma” porque estos sistemas “incumplen sistemáticamente los estándares éticos fundamentales de la atención a la salud mental”, según el documento.

¿Qué riesgos tiene usar ChatGPT como psicólogo?
El estudio identificó al menos 15 violaciones a principios básicos de la terapia psicológica, agrupadas en cinco categorías. Entre ellas, la falta de adaptación contextual, ya que los chatbots suelen ofrecer respuestas genéricas sin considerar la historia personal de cada usuario. Esto puede derivar en recomendaciones poco útiles o incluso contraproducentes.
Además, la investigación evidenció lo que denomina “empatía engañosa”. Los sistemas utilizan expresiones como “te entiendo” o “te veo”, generando una sensación de cercanía emocional que no corresponde a una comprensión real de la situación.
Uno de los hallazgos más preocupantes es la incapacidad para manejar escenarios críticos. Según el estudio, los modelos evaluados “no gestionaron bien las situaciones de crisis” y, en algunos casos, ofrecieron respuestas que reforzaban creencias perjudiciales de los usuarios sobre sí mismos.
También se detectaron problemas de sesgo y discriminación, así como una débil colaboración terapéutica, en la que el chatbot dirige la conversación de forma inapropiada o valida ideas incorrectas. Estas fallas reflejan limitaciones estructurales de la tecnología en contextos sensibles.
¿Puede la inteligencia artificial reemplazar a un terapeuta?
Pese a las conclusiones, los autores aclaran que sus hallazgos “no sugieren que la IA no tenga cabida en la atención de la salud mental”. Por el contrario, reconocen su potencial para ampliar el acceso a servicios de apoyo emocional, especialmente en contextos donde la atención profesional es limitada o costosa.
No obstante, enfatizan que su implementación debe estar acompañada de “salvaguardas claras” y marcos regulatorios sólidos. A diferencia de los terapeutas humanos, los sistemas de IA no cuentan con mecanismos de supervisión profesional ni responsabilidad legal directa en caso de errores o malas prácticas.

En ese sentido, el uso de chatbots debe entenderse como complementario y no sustitutivo. Delegar procesos emocionales complejos en una herramienta automatizada puede implicar riesgos, sobre todo en situaciones de vulnerabilidad psicológica.
El estudio deja una advertencia clara: aunque la inteligencia artificial ofrece oportunidades en el campo del bienestar, aún está lejos de replicar la comprensión, el juicio clínico y la responsabilidad ética de un profesional en salud mental.