Revelan consecuencias de usar a ChatGPT como psicólogo

Estudio advierte que usar ChatGPT como psicólogo puede generar riesgos éticos, respuestas inadecuadas y fallas en el manejo de crisis emocionales.
ChatGPT
Expertos alertan que los chatbots de inteligencia artificial pueden simular empatía sin comprender realmente el contexto emocional de los usuarios. Crédito: Freepik

El uso de herramientas de inteligencia artificial como apoyo emocional se ha disparado en los últimos años. Cada vez más personas recurren a chatbots para hablar de ansiedad, problemas de pareja o situaciones laborales, en busca de respuestas inmediatas y accesibles. Sin embargo, un reciente estudio académico encendió las alarmas sobre los riesgos de convertir estas plataformas en sustitutos de la terapia profesional.

La investigación, realizada en la Universidad de Brown y difundida por Science Daily, advierte una “seria alarma” porque estos sistemas “incumplen sistemáticamente los estándares éticos fundamentales de la atención a la salud mental”, según el documento.

ChatGPT
El auge de los chatbots como apoyo emocional preocupa a expertos: un estudio de la Universidad de Brown advierte fallas éticas graves en su uso como sustituto terapéutico.Crédito: Freepik

¿Qué riesgos tiene usar ChatGPT como psicólogo?

El estudio identificó al menos 15 violaciones a principios básicos de la terapia psicológica, agrupadas en cinco categorías. Entre ellas, la falta de adaptación contextual, ya que los chatbots suelen ofrecer respuestas genéricas sin considerar la historia personal de cada usuario. Esto puede derivar en recomendaciones poco útiles o incluso contraproducentes.

Además, la investigación evidenció lo que denomina “empatía engañosa”. Los sistemas utilizan expresiones como “te entiendo” o “te veo”, generando una sensación de cercanía emocional que no corresponde a una comprensión real de la situación.

Uno de los hallazgos más preocupantes es la incapacidad para manejar escenarios críticos. Según el estudio, los modelos evaluados “no gestionaron bien las situaciones de crisis” y, en algunos casos, ofrecieron respuestas que reforzaban creencias perjudiciales de los usuarios sobre sí mismos.

También se detectaron problemas de sesgo y discriminación, así como una débil colaboración terapéutica, en la que el chatbot dirige la conversación de forma inapropiada o valida ideas incorrectas. Estas fallas reflejan limitaciones estructurales de la tecnología en contextos sensibles.

¿Puede la inteligencia artificial reemplazar a un terapeuta?

Pese a las conclusiones, los autores aclaran que sus hallazgos “no sugieren que la IA no tenga cabida en la atención de la salud mental”. Por el contrario, reconocen su potencial para ampliar el acceso a servicios de apoyo emocional, especialmente en contextos donde la atención profesional es limitada o costosa.

No obstante, enfatizan que su implementación debe estar acompañada de “salvaguardas claras” y marcos regulatorios sólidos. A diferencia de los terapeutas humanos, los sistemas de IA no cuentan con mecanismos de supervisión profesional ni responsabilidad legal directa en caso de errores o malas prácticas.

Spotify y ChatGPT
Estudio alerta que usar ChatGPT como psicólogo puede generar respuestas genéricas, “empatía engañosa” y fallas en crisis, por lo que no reemplaza la terapia profesional.Crédito: Freepik y OpenAI

En ese sentido, el uso de chatbots debe entenderse como complementario y no sustitutivo. Delegar procesos emocionales complejos en una herramienta automatizada puede implicar riesgos, sobre todo en situaciones de vulnerabilidad psicológica.

El estudio deja una advertencia clara: aunque la inteligencia artificial ofrece oportunidades en el campo del bienestar, aún está lejos de replicar la comprensión, el juicio clínico y la responsabilidad ética de un profesional en salud mental.


bioseguridad

Pensaban que era un arma biológica: así apareció el hantavirus en la Guerra de Corea

Las investigaciones apuntaron entonces a las condiciones en las que vivían los soldados durante la guerra.
Entre 1951 y 1954, más de 3.000 militares fueron afectados por la enfermedad, que en ese momento fue llamada “fiebre hemorrágica coreana”.



La NASA lanza concurso en el que podrá ganarse 3 mil millones de pesos: estos son los requisitos para participar

La convocatoria internacional estará abierta hasta julio de 2026 y busca resolver un reto clave para futuras misiones espaciales.

Por qué madrugar más afectaría su salud y no le ayudaría a ser más productivo

Un estudio relacionó despertarse muy temprano con cambios cerebrales asociados al deterioro cognitivo y problemas del sueño.

Fórmula de Santiago Botero aseguró que hijo de Rodolfo Hernández le pidió $3.000 millones: "Yo no me le arrodillo a nadie"

Carlos Fernando Cuevas habló sobre su relación con personas cercanas a Rodolfo Hernández y reveló detalles de la campaña presidencial.

Supuesta prelista de Colombia para el Mundial 2026 se filtró: Juan Guillermo Cuadrado y Jhon Jáder Durán, entre las sorpresas

Néstor Lorenzo

¿Colpensiones podría quedarse sin recursos para pagar pensiones? Esto dijo su presidente

Colpensiones

Predicción del Mundial 2026: así le iría a Colombia, según matemático experto

El equipo de Néstor Lorenzo no superaría los octavos de final.

Las diferencias entre la viuda y el padre del asesinado Miguel Uribe Turbay

María Claudia Tarazona y Miguel Uribe Londoño

Con o sin decreto, los fondos privados deben trasladar dinero a Colpensiones: Jaime Dussán

Colpensiones y Jaime Dussán

Luis Suárez rompe récord histórico de Jackson Martínez en Portugal

Suárez superó a Jackson Martínez y Falcao García.

Las seis de las 6 con Juan Lozano | martes 12 de mayo de 2026

Las seis de las 6 con Juan Lozano

🔴 EN VIVO | Noticiero La FM - 12 de mayo de 2026

Noticiero La FM

“Miguel nos tiene que unir”: María Claudia Tarazona sobre su apoyo a Paloma Valencia en la carrera presidencial

María Claudia Tarazona decidió apoyar a Paloma Valencia