Por Blake Brittain
(Reuters) – La empresa de inteligencia synthetic Anthropic fue objeto de una demanda colectiva en un tribunal federal de California por parte de tres autores que dicen que la empresa hizo un mal uso de sus libros y de cientos de miles de otros para entrenar a su chatbot Claude, impulsado por inteligencia synthetic.
La denuncia, presentada el lunes por los escritores y periodistas Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, decía que Anthropic utilizó versiones pirateadas de sus obras y otras para enseñar a Claude a responder a indicaciones humanas.
Un portavoz de Anthropic dijo el martes que la empresa estaba al tanto de la demanda y evaluaba la denuncia, pero se negó a hacer más comentarios, citando un litigio pendiente. Un abogado de los autores se negó a hacer comentarios.
La demanda se suma a varias otras quejas de alto riesgo presentadas por titulares de derechos de autor, incluidos artistas visuales, medios de comunicación y sellos discográficos, sobre el materials utilizado por las empresas tecnológicas para entrenar sus sistemas de inteligencia synthetic generativa.
Grupos separados de autores han demandado a OpenAI y Meta Platforms (NASDAQ:) por el presunto mal uso por parte de las empresas de su trabajo para entrenar los modelos de lenguaje grande subyacentes a sus chatbots.
El caso presentado el lunes es el segundo contra Anthropic luego de una demanda presentada por editores musicales el año pasado por su presunto uso indebido de letras de canciones protegidas por derechos de autor para entrenar a Claude.
Los autores afirmaron en su denuncia que Anthropic ha “construido un negocio multimillonario robando cientos de miles de libros con derechos de autor”. Anthropic ha obtenido respaldo financiero de fuentes como Amazon (NASDAQ:), Google (NASDAQ:) y el ex multimillonario de criptomonedas Sam Bankman-Fried.
Según la denuncia, las obras de los autores fueron incluidas en un conjunto de datos de libros pirateados que Anthropic utilizó para entrenar a Claude.
La demanda solicitaba una cantidad no especificada de daños monetarios y una orden que bloqueara permanentemente a Anthropic de hacer un mal uso del trabajo de los autores.