Anthropic contrató a un exdirectivo de Google Books para escanear los libros y entrenar a su modelo de IA Claude. / GOOGLE
Comprar miles de libros impresos, escanearlos uno por uno, entrenar con ellos a un modelo de inteligencia artificial (IA) y, luego, destruir los ejemplares físicos. Esa fue la estrategia que adoptó Anthropic, la empresa detrás de Claude, su propio producto de IA. La maniobra puede parecer sacada de una distopía, pero fue defendida como un proceder legal en los tribunales de los Estados Unidos, según informaron diversos medios familiarizados con el caso.
El juez William Alsup respaldó la operación, al considerar que escanear libros comprados para alimentar una IA es un “uso justo”, siempre y cuando no se difundan los archivos, y se desechen los originales. Sin embargo, el caso tiene una parte más opaca: antes de aplicar este método, la compañía había utilizado más de siete millones de libros pirateados. Por eso Anthropic aún deberá enfrentar un juicio clave en diciembre.
Entrenar una IA a partir de libros reales
En el proceso de comprar libros impresos, escanearlos y destruirlos con el fin de alimentar a su IA, Anthropic sumó a especialistas con experiencia en digitalización editorial, como Tom Turvey, ex directivo de Google Books.
Durante meses, la compañía adquirió de forma masiva libros nuevos y usados. Luego, les quitó las tapas, digitalizó página por página y se deshizo de los ejemplares físicos. Los archivos escaneados no fueron compartidos ni comercializados, sino que quedaron dentro de los servidores privados donde se entrenó Claude. A pesar de lo polémico del procedimiento, un tribunal de California consideró que la práctica era válida.
¿Qué dijo la Justicia?
El juez Alsup, del Distrito Norte de California, resolvió que el accionar de Anthropic encajaba dentro del concepto de “uso justo” o fair use. Es decir, consideró legal que se utilizaran libros con derechos de autor para entrenar una IA, siempre que esos libros hayan sido comprados de forma legítima y no se distribuyan copias digitales. Además, el magistrado subrayó que el proceso era altamente transformador: el texto original no se usó tal como estaba, sino que fue procesado para generar un nuevo producto basado en inteligencia artificial.
Este fallo sienta un precedente importante en medio de una creciente discusión global sobre cómo se entrenan los modelos de IA, especialmente cuando se utilizan obras protegidas por derechos de autor. Mientras tanto, otros casos similares avanzan en otros tribunales de los Estados Unidos y de Europa.
La parte ilegal de la historia
A pesar de haber encontrado una manera legal de usar libros para entrenar su IA, Anthropic no está del todo libre de problemas judiciales. Entre 2021 y 2023, antes de implementar esta estrategia basada en compras legales, la empresa habría descargado millones de libros pirateados de bases como Books3, LibGen y Pirate Library Mirror. Esa primera etapa del entrenamiento incluyó más de siete millones de obras sin licencia, lo que provocó una demanda colectiva por parte de varios autores, entre ellos Andrea Bartz y Kirk Wallace Johnson.
Aunque el uso posterior de libros comprados no borra lo hecho anteriormente, el juez sí aclaró que podría incidir en la multa final. La empresa deberá afrontar un juicio en diciembre, en el que podrían fijarse indemnizaciones de hasta U$S 150.000 por cada obra usada sin permiso.





















