Millones de personas ya lo hacen. Abren ChatGPT, escriben algo como "actúa como mi terapeuta cognitivo-conductual" y empiezan a hablar de lo que les pesa. Es comprensible: la terapia formal es cara, la lista de espera es larga y el chatbot siempre está disponible. El problema es que un nuevo estudio de investigadores de la Universidad de Brown, presentado en la Conferencia de IA, Ética y Sociedad de AAAI/ACM, documentó 15 riesgos éticos concretos y distintos al usar LLMs como consejeros de salud mental, incluso cuando se les instruye con prompts específicos de terapia cognitivo-conductual o terapia dialéctico-conductual.
El estudio no es una opinión. Los investigadores trabajaron con siete consejeros pares entrenados en terapia cognitivo-conductual, que condujeron sesiones de autoconsejería con modelos de GPT, Claude y Llama configurados para actuar como terapeutas. Tres psicólogos clínicos licenciados revisaron después las transcripciones para identificar violaciones éticas.
Los 15 riesgos organizados en cinco categorías
El estudio agrupa los fallos en cinco áreas. La primera es la falta de adaptación contextual: los modelos ignoran el trasfondo específico de la persona y ofrecen respuestas genéricas que funcionarían igual para cualquier usuario. La segunda es la mala colaboración terapéutica, que incluye dirigir la conversación de forma demasiado agresiva y, en algunos casos, reforzar creencias incorrectas o dañinas del propio usuario en lugar de cuestionarlas.
La tercera categoría es la que el estudio llama empatía engañosa: el modelo usa frases como "te entiendo" o "eso suena muy difícil" para simular comprensión emocional sin tenerla realmente. Es lenguaje diseñado para parecer empático, pero sin el proceso real detrás. La cuarta es la discriminación injusta, con respuestas que varían según el género, la cultura o la religión mencionada. Y la quinta, quizás la más grave, es la falta de manejo de crisis y seguridad: los modelos fallaron repetidamente al enfrentar situaciones que requerían derivar a la persona a ayuda profesional urgente, incluyendo menciones de ideación suicida.
El problema del prompting como solución
Lo que hace especialmente relevante este estudio es su premisa: los investigadores asumieron el mejor escenario posible. No evaluaron a alguien que simplemente le pregunta algo al chatbot por defecto; evaluaron el uso con prompts cuidadosamente diseñados para guiar al modelo hacia comportamientos terapéuticos. Y aun así los fallos fueron sistemáticos.
Zainab Iftikhar, la investigadora de doctorado en ciencias de la computación que lideró el estudio, señala una diferencia estructural importante: cuando un terapeuta humano comete un error, existen mecanismos de responsabilidad, colegios profesionales y la posibilidad de demandas por mala praxis. Cuando un LLM hace lo mismo, no hay ningún marco regulatorio que aplique.
Lo que el estudio no dice
Los investigadores son explícitos en que sus hallazgos no implican que la IA no tenga ningún lugar en la salud mental. El acceso a terapia formal es un problema real: en buena parte de América Latina, consultar con un psicólogo es económicamente inaccesible para la mayoría de la población, y la brecha se amplía en zonas rurales. Herramientas de IA que amplíen el acceso a un primer nivel de apoyo pueden ser valiosas, especialmente si se diseñan con límites claros.
El punto del estudio es más preciso: usar un LLM de propósito general como sustituto de un terapeuta licenciado, con o sin prompts especializados, conlleva riesgos documentados que el usuario promedio desconoce. Y dado que plataformas de salud mental dirigidas al consumidor masivo construyen sus productos exactamente así —aplicando prompts sobre modelos como GPT o Claude—, la urgencia de establecer estándares legales y educativos específicos no es teórica.
El estudio hace una recomendación directa: si estás hablando con un chatbot sobre tu salud mental, hay comportamientos específicos que debes identificar como señales de alerta: respuestas que se sienten genéricas, validación excesiva sin cuestionamiento, o cualquier momento en que el modelo minimice una situación de crisis en lugar de indicarte que busques ayuda profesional.
