Una jueza federal de EE. UU. suspendió el jueves la aprobación final del acuerdo propuesto de 1.500 millones de dólares de la empresa de inteligencia artificial Anthropic con los autores, exigiendo más claridad sobre el convenio y señalando un mayor escrutinio legal para los desarrolladores de IA sobre los datos de entrenamiento. El caso se centra en las acusaciones de que Anthropic utilizó libros piratas para entrenar a su chatbot Claude.
La jueza de distrito de EE. UU. Araceli Martínez-Olguin en San Francisco no otorgó la aprobación final, sino que solicitó más detalles sobre cuestiones que incluyen los honorarios de los abogados y los pagos a los demandantes principales. El acuerdo había sido aprobado inicialmente por el juez ahora jubilado William Alsup en septiembre pasado.
La demanda colectiva, presentada por primera vez en 2024, cubre más de 480.000 obras. Si bien el juez Alsup dictaminó en junio pasado que el uso de las obras por parte de Anthropic para el entrenamiento constituía un "uso legítimo", determinó que la empresa violó los derechos de autor al guardar más de 7 millones de libros piratas en una "biblioteca central". Se programó un juicio para determinar los daños financieros por esa infracción para diciembre.
El resultado de este caso se sigue de cerca, ya que podría sentar un precedente legal crítico para los derechos de propiedad intelectual en la era de la IA generativa. Una sanción sustancial o un acuerdo que favorezca fuertemente a los autores podría aumentar significativamente los costos operativos y los riesgos legales para los desarrolladores de IA como OpenAI y Google, lo que podría enfriar el sentimiento de los inversores en un sector que ha atraído miles de millones en capital. El retraso también resalta el desacuerdo entre los autores, y algunos, incluido el novelista Dave Eggers, optaron por retirarse para presentar demandas por separado contra Anthropic.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.