in

Autores demandan a Anthropic por violación de derechos de autor sobre entrenamiento de IA

Autores demandan a Anthropic por violación de derechos de autor sobre entrenamiento de IA

La empresa de inteligencia artificial Anthropic ha sido objeto de una demanda colectiva en un tribunal federal de California por parte de tres autores que afirman que la empresa hizo un mal uso de sus libros y de cientos de miles de otros para entrenar a su chatbot Claude, impulsado por inteligencia artificial.

La denuncia, presentada el lunes por los escritores y periodistas Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, decía que Anthropic utilizó versiones pirateadas de sus obras y otras para enseñar a Claude a responder a indicaciones humanas.

Anthropic no respondió de inmediato a una solicitud de comentarios el martes. Un abogado de los autores se negó a hacer comentarios.

La demanda se suma a varias otras quejas de alto riesgo presentadas por titulares de derechos de autor, incluidos artistas visuales, medios de comunicación y sellos discográficos, sobre el material utilizado por las empresas tecnológicas para entrenar sus sistemas de inteligencia artificial generativa.

Grupos separados de autores han demandado a OpenAI y Meta Platforms por el presunto uso indebido por parte de las empresas de su trabajo para entrenar los modelos de lenguaje grande subyacentes a sus chatbots.

El caso presentado el lunes es el segundo contra Anthropic luego de una demanda presentada por editores musicales el año pasado por su presunto uso indebido de letras de canciones protegidas por derechos de autor para entrenar a Claude.

Los autores afirmaron en su denuncia que Anthropic ha «construido un negocio multimillonario robando cientos de miles de libros con derechos de autor». Anthropic ha obtenido respaldo financiero de fuentes como Amazon, Google y el ex multimillonario de las criptomonedas Sam Bankman-Fried.

Según la denuncia, las obras de los autores fueron incluidas en un conjunto de datos de libros pirateados que Anthropic utilizó para entrenar a Claude.

La demanda solicitaba una cantidad no especificada de daños monetarios y una orden que bloqueara permanentemente a Anthropic de hacer un mal uso del trabajo de los autores.

Fuente

Written by PyE

La startup de inteligencia artificial Recogni presenta un nuevo método informático para reducir los costes y los requisitos de energía

La startup de inteligencia artificial Recogni presenta un nuevo método informático para reducir los costes y los requisitos de energía

Philip Gordon, asistente del presidente y asesor de seguridad nacional de la vicepresidenta Kamala Harris

La plataforma económica de Harris: ¿buena política o buena política?