El gobernador de Tennessee, Bill Lee, firmó esta semana la SB 1580: ningún sistema de IA puede representarse a sí mismo como un profesional de salud mental cualificado. La ley fue aprobada por el Senado 32-0 y por la Cámara 94-0, según Transparency Coalition AI. El voto unánime en ambas cámaras dice algo sobre el consenso. El timing dice algo diferente.
Qué prohíbe exactamente la ley
La SB 1580 no prohíbe que los chatbots ofrezcan apoyo emocional ni que las apps de bienestar mental usen IA. Lo que prohíbe es que un sistema de IA se presente activamente como un terapeuta, psicólogo o profesional de salud mental con cualificaciones reales. La distinción es importante: un bot que dice "soy tu compañero de apoyo emocional" opera en terreno diferente a uno que dice "soy tu terapeuta virtual certificado".
El proyecto forma parte de una ola legislativa más amplia. En Nebraska, Illinois, Michigan y Georgia hay proyectos similares avanzando en el mismo ciclo legislativo de 2026, de acuerdo con el seguimiento de Transparency Coalition AI. La tendencia legislativa ya no es marginal — se está convirtiendo en respuesta coordinada a un problema que llegó antes que las reglas.
El problema que la ley intenta resolver
Aplicaciones como Character.AI, Replika y decenas de productos derivados llevan años ofreciendo interacciones que millones de usuarios — muchos de ellos adolescentes — describen como terapéuticas. El diseño de estos productos explota deliberadamente la tendencia humana a atribuir empatía a interfaces conversacionales.
El caso más documentado es el de Sewell Setzer III, un adolescente de Florida de 14 años que murió por suicidio en 2024 después de meses de interacciones intensas con un personaje de Character.AI. La madre demandó a la empresa. El caso está en los tribunales y ha puesto en el mapa legislativo lo que hasta entonces era debate académico.
La IA no puede reemplazar a un terapeuta. Pero puede convencerte de que no necesitas uno. Esa es la diferencia que la ley intenta nombrar.
¿Por qué el voto fue unánime?
Un 32-0 y un 94-0 en un estado del sur de Estados Unidos, en un año electoral, sobre regulación de tecnología es estadísticamente raro. La unanimidad refleja que el tema tiene consenso bipartidista real: la protección de menores frente a sistemas que simulan autoridad profesional no tiene oposición política evidente.
Lo que sí tiene resistencia — aunque no en el pleno legislativo — es la industria. Las empresas que construyen productos de compañía emocional por IA argumentan que sus sistemas no se presentan como terapeutas sino como compañeros, y que la legislación confunde las categorías. El debate sobre dónde trazar esa línea es el siguiente capítulo.
El rezago entre el producto y la ley
Replika lanzó su versión comercial en 2017. Character.AI llegó al mercado en 2022 y alcanzó decenas de millones de usuarios activos antes de que cualquier legislatura estatal aprobara una restricción específica sobre chatbots de salud mental. La ley de Tennessee llega cinco años después de que el problema se instalara en la vida cotidiana de millones de personas.
Eso no la hace inútil — las leyes frecuentemente llegan tarde y aun así importan. Pero el rezago entre el despliegue del producto y la regulación es precisamente el espacio donde ocurre el daño que la ley busca prevenir.
