A Anthropic, criadora do chatbot Claude, aceitou pagar 1,5 bilhão de dólares para encerrar um processo movido por milhares de escritores, em sua maioria norte-americanos e britânicos, que acusavam a empresa de usar suas obras sem autorização para treinar a inteligência artificial. A ação começou, no ano passado, com três autores –Andrea Bartz, especializada em thriller, Charles Graeber e Kisk Wallace Johnson, conhecidos por obras de não ficção. Muitos são membros do sindicato Authors Guild. Não demorou para que o trio virasse representante de um grupo maior de artistas descontentes com as empresas de Inteligência Artificial.
Estima-se que cerca de 500 mil livros tenham sido incluídos nesse treinamento, baixados de repositórios piratas como LibGen e Pirate Library Mirror, sem nenhum tipo de licença. O juiz William Alsup, responsável pelo caso, até reconheceu que o uso de material protegido por direito autoral em treinamento de IA poderia ser enquadrado como “fair use” (em português, uso justo), mas considerou ilegal a forma como a empresa obteve os textos.
A indenização prevê o pagamento médio de 3 mil dólares por livro. A Anthropic também terá de apagar dos servidores todas as cópias piratas. O caso marca um precedente importante, pois mostra que mesmo as big techs terão de negociar com criadores de conteúdo. A decisão reacende o debate global sobre como conciliar inovação tecnológica e proteção dos direitos autorais em um cenário em que milhões de obras digitais já circulam em bases abertas e ilegais. “É o primeiro caso de recuperação de direitos autorais em tempos de IA”, comemorou o advogado de acusação, Justin Nelson.
Leia:
+https://veja.abril.com.br/tecnologia/empresas-jornalisticas-entram-na-justica-contra-chatbots/
+https://veja.abril.com.br/tecnologia/suicidio-de-adolescente-nos-eua-abre-debate-sobre-os-limites-do-uso-de-ia-nas-terapias/