A Anthropic pagará US$ 1,5 bilhão para treinar sua IA com livros pirateados.

A Anthropic , conhecida por seu chatbot de inteligência artificial Claude , concordou em pagar pelo menos US$ 1,5 bilhão para encerrar uma ação coletiva nos Estados Unidos. A disputa surgiu porque a empresa usou livros sem a permissão dos autores para treinar sua IA, de acordo com documentos judiciais protocolados na sexta-feira.
O advogado dos autores, Justin Nelson, classificou o acordo como "histórico", observando que ele supera qualquer recuperação de direitos autorais anterior na era da IA . A decisão estabelece um precedente importante para o uso de obras protegidas por direitos autorais para treinar modelos de inteligência artificial .
O processo foi movido pelos escritores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson , que alegaram que a Anthropic havia copiado ilegalmente seus livros para desenvolver Claude, o concorrente direto do ChatGPT.
Segundo os autores, a prática da empresa não apenas violava seus direitos, mas também envolvia o download em massa de livros piratas , criando uma biblioteca digital não autorizada que era usada para treinar inteligência artificial.
Em junho, a Anthropic obteve uma vitória parcial . O juiz federal de São Francisco, William Alsup, decidiu que o treinamento dos modelos de IA nos livros, sejam eles comprados ou pirateados, transformou significativamente as obras , constituindo "uso justo" segundo a lei de direitos autorais dos EUA.
O juiz explicou em sua decisão de 32 páginas que o uso transformador de livros para treinar IA não violava direitos autorais , desde que a natureza do conteúdo e seus propósitos educacionais ou de pesquisa fossem respeitados.
No entanto, o juiz também decidiu que baixar milhões de livros pirateados para criar a biblioteca digital da Anthropic constitui infração . Isso levou a empresa a optar por um acordo financeiro, evitando um litígio prolongado.
O acordo cobrirá aproximadamente 500.000 livros , com um pagamento estimado de US$ 3.000 por obra , o que é quatro vezes a compensação legal mínima segundo a lei de direitos autorais dos EUA.
Como parte do acordo, a Anthropic destruirá os arquivos piratas originais e quaisquer cópias derivadas. No entanto, a empresa manterá os direitos sobre os livros que adquiriu e digitalizou legalmente, protegendo assim sua capacidade de continuar treinando modelos de IA com materiais legítimos.
A advogada da Anthropic, Aparna Sridhar, disse que a empresa continua comprometida em desenvolver sistemas de IA seguros que ajudem pessoas e organizações a expandir capacidades, impulsionar descobertas científicas e resolver problemas complexos .
Mary Rasenberger, diretora executiva da Authors Guild , enfatizou que o acordo envia uma mensagem forte à indústria de IA : há consequências legais quando as obras dos autores são usadas sem permissão .
O caso destaca a necessidade de regulamentação e ética no treinamento de modelos de inteligência artificial , especialmente quando se utilizam obras protegidas por direitos autorais.
Embora um acordo tenha sido alcançado, ele ainda precisa ser aprovado pelo Juiz Alsup . Uma audiência está marcada para a próxima segunda-feira no tribunal federal de São Francisco , onde a resolução será formalizada e os termos finais do acordo confirmados.
O caso Anthropic representa um ponto de virada na relação entre direitos autorais e inteligência artificial . O pagamento de US$ 1,5 bilhão , a destruição de arquivos pirateados e o fortalecimento do uso legal de obras ressaltam a importância do respeito à propriedade intelectual na era digital.
Este acordo histórico estabelece um precedente que provavelmente influenciará a maneira como as empresas de IA treinam seus modelos, garantindo que os criadores recebam reconhecimento e remuneração por seu trabalho à medida que o setor avança em direção a práticas mais éticas e regulamentadas.
La Verdad Yucatán