BMG demanda a Anthropic: cuando la IA canta sin permiso

BMG demanda Anthropic: archivista frente a expedientes abiertos con trail de datos cyan saliendo del archivo

BMG Rights Management demandó a Anthropic el 17 de marzo en un tribunal federal de California por usar letras de canciones para entrenar a Claude sin autorización. No es la primera demanda contra una empresa de IA por derechos de autor. Es la más difícil de defender.

Qué dice la demanda y por qué es diferente

BMG, propiedad del grupo alemán Bertelsmann, presentó una queja de 47 páginas en la que alega que Anthropic copió y reprodujo letras de artistas como The Rolling Stones, Bruno Mars, Ariana Grande, Justin Bieber y Louis Armstrong para entrenar los modelos de lenguaje detrás de Claude. La demanda cita 493 infracciones de derechos de autor específicas, con canciones identificadas y evidencia concreta: Claude, cuando se le solicita, reproduce pasajes completos o partes sustanciales de temas como "Uptown Funk", "You Can't Always Get What You Want" y "What a Wonderful World".

Ese detalle es lo que diferencia este caso de otros litigios en curso. Las demandas de autores o medios de comunicación contra OpenAI o Meta suelen girar en torno al uso de obras en el entrenamiento, algo que las empresas de IA niegan o califican de fair use. Aquí, BMG tiene capturas de pantalla del output: Claude generando fragmentos protegidos en tiempo real cuando se le pide contenido de canciones específicas. Eso es reproducción de obra, no solo entrenamiento.

El historial que complica la defensa

Anthropic ya tiene un precedente costoso. En 2025 llegó a un acuerdo extrajudicial con un grupo de autores que alegaban el uso no autorizado de sus libros en el entrenamiento de Claude. El monto del acuerdo fue de 1,500 millones de dólares, lo que lo convierte, según los reportes, en la recuperación por derechos de autor más grande reportada públicamente en la historia. La empresa también enfrenta desde 2023 una demanda similar presentada por Universal Music Group, Concord Music y ABKCO Music, que sigue activa.

BMG señala en su queja que en diciembre de 2025 envió una carta de cese y desistimiento a Anthropic, sin recibir respuesta ni apertura a negociación. Ese silencio es el que justifica, según la empresa, escalar directamente a los tribunales. El argumento que Anthropic ha utilizado en otros casos —que el uso de material protegido en entrenamiento es transformativo y cae dentro del uso legítimo— se vuelve considerablemente más débil cuando el modelo no solo fue entrenado con las letras, sino que las reproduce activamente en sus respuestas.

Anthropic construyó una IA con la cultura musical de varias generaciones y se negó a responder cuando le llegó la factura. Eso ya no es ambigüedad jurídica: es una postura.

Lo que viene y lo que esto revela

Los daños estatutarios bajo la ley estadounidense de derechos de autor pueden alcanzar los 150,000 dólares por obra en casos de infracción dolosa. Con 493 infracciones citadas, la exposición máxima teórica de Anthropic supera los 70 millones de dólares, sin contar honorarios legales ni posibles acuerdos. En la práctica, los litigios de esta naturaleza rara vez llegan a juicio con ese monto; lo más probable es que Anthropic intente llegar a un acuerdo similar al de los autores.

Más allá del dinero, lo que este caso pone sobre la mesa es una pregunta que las empresas de IA han logrado esquivar durante años: si un modelo puede reproducir letra por letra el trabajo de un artista cuando se le pide, ¿en qué sentido esa obra no sigue siendo de quien la creó? El argumento de la transformación —que la IA convierte el material en algo nuevo— tiene un límite claro cuando lo que la IA produce es indistinguible del original. BMG encontró ese límite y decidió llevarlo a un juez.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete