Autores contra máquinas: las primeras sentencias

Se multiplican las denuncias de creadores contra el uso sin permiso de sus obras para entrenar a la inteligencia artificial

Imagen de un robot en una biblioteca, generada con ayuda de ChatGPT y Adobe Firefly
ChatGPT/Adobe Firefly
Federico Marín Bellón

Avance

La inteligencia artificial sigue alimentándose de sangre humana. Disney, BBC, The New York Times y otras empresas del ámbito creativo y cultural, además de varios francotiradores solitarios, se han puesto en pie de guerra contras las empresas que exprimen el conocimiento de nuestra especie, decididas a superarlo. Los casos empiezan a amontonarse en los tribunales, un campo de batalla en teoría favorable al homo sapiens. Las primeras sentencias, sin embargo, no corroboran ningún favoritismo. Es posible que la rebelión haya llegado tarde, como ocurrió en su día con los muros de pago. 

Los desorganizados sistemas legales planetarios empiezan a trazar algunas líneas en su intento de definir los límites de la propiedad intelectual en esta nueva era. En 2025, los tribunales de Estados Unidos y del Reino Unido han sido los dos grandes escenarios en los que se representa una lucha a muerte entre empresas tecnológicas, autores, artistas y conglomerados mediáticos. Queda mucho para determinar qué constituye uso legítimo, propiedad e infracción en la era de la IA generativa. Como dijo alguien, sin lograr tampoco reconocimiento de autor, «no es por dinero; es por mucho dinero».

La respuesta judicial ha sido cautelosa, hasta ahora, y permisiva con la crianza cultural de las nuevas especies de IA, a las que solo han podido acorralar por delitos secundarios, como a Al Capone. Quizá no sea casualidad que la tolerancia del sistema legal recuerde al ya clásico con las armas de fuego. Los tribunales de EE. UU. no ven mal que las máquinas entrenen con material protegido, siempre que las balas hayan sido adquiridas de forma legal. La judicatura del Reino Unido parece algo más estricta, sobre todo cuando está en juego la integridad de marca o el daño al público.

Análisis de nueva revista

Las cuestiones legales en torno a la IA no solo afectan a los derechos de los autores, pero estos son uno de los eslabones más débiles, aunque tampoco el único. Amazon ya presume de tener más de un millón de robots a su servicio; las almas de metal superan a los pellejudos, lo que por otro lado podría tener curiosas consecuencias sindicales. Si nos centramos en el trabajo intelectual, ¿hasta qué punto puede una IA utilizar material protegido sin retribuir a sus creadores? ¿Quién es responsable cuando una IA produce contenidos que vulneran la ley? ¿Cuánta ayuda ha aportado la IA en la elaboración de este artículo? Los tribunales deben dirimir al menos dos de los interrogantes citados y no lo tienen fácil. 

Anthropic y los límites del uso legítimo

En un fallo histórico, un adjetivo no necesariamente bueno, un juez federal de EE. UU. determinó que Anthropic, empresa fundada por exmiembros de OpenAI, no violó la ley de derechos de autor al utilizar libros con copyright para entrenar su modelo de lenguaje Claude. No fueron unos pocos ejemplares pirateados, sino más de siete millones. La decisión se basó en la doctrina del «uso legítimo», que sugiere que entrenar una IA con grandes conjuntos de datos de texto está dentro de los límites legales. A favor de esta tesis, se puede argüir que cualquier escritor se ha entrenado durante toda su vida con métodos idénticos, leyendo todo lo que puede. Eugenio D’Ors lo resumió con maestría: «Todo lo que no es tradición es plagio».

Como contrapartida, el tribunal del caso Anthropic consideró que almacenar millones de libros pirateados sí constituye una infracción. El juez admitió el uso de material «prohibido», pero matizó que la legalidad del entrenamiento depende de la legitimidad de la fuente.  Interpretación interesante, que mantiene abierta la «vía Capone». En este sentido, se avecina un juicio clave, que se celebrará en diciembre y servirá para encauzar el futuro de esta guerra. La sentencia que surja podría sentar un precedente, como mínimo en Estados Unidos.

Meta: victoria con reservas

Meta, la empresa matriz de Facebook, también se ha sentado en el banquillo de los acusados, pero un juez desestimó la demanda presentada por 13 autores, entre los que destacaban, por conocidos, la humorista Sarah Silverman y el escritor y periodista Ta-Nehisi Coates. Los denunciantes sostenían que sus obras fueron utilizadas sin autorización para entrenar el modelo de lenguaje LLaMA, entre más de 190.000 libros pirateados. La victoria no fue total, una vez más, y vino acompañada de una advertencia. El juez criticó la argumentación legal de Meta e indicó que futuras querellas similares podrían tener más éxito, sobre todo si los demandantes pueden demostrar perjuicios o establecer vínculos más claros entre los datos de entrenamiento y los resultados generados. Quizá solo fue una forma de lavarse las manos.

Microsoft, en aprietos

Microsoft también se enfrenta a acciones legales por parte de autores de cierto renombre, como Kai Bird (autor de Prometeo americano, biografía de Oppenheimer) y la ensayista Jia Tolentino (Falso espejo). Los demandantes alegan que el gigante utilizó copias pirateadas de sus libros para entrenar su modelo Megatron y reclaman hasta 150.000 dólares por título. Este caso, aún en sus primeras etapas, también puede ser clave a la hora de valorar los riesgos reputacionales y financieros que afrontan las empresas tecnológicas que no apliquen una estricta transparencia en la recopilación de datos.

Getty Images vs. Stability AI

El mundo de la fotografía también vive con preocupación el auge de la IA, que cada semana asombra con sus avances. Aquí también ha cambiado la estrategia de los guardianes del viejo orden. Getty Images demandó a Stability, pero en mitad del proceso cambió sus argumentos. En un principio, la suya era una protesta más por los derechos de autor, pero luego se centró en violaciones de marca registrada, un caso quizá más urgente y fácil de ganar. Getty denuncia el uso no autorizado de su marca de agua, especialmente en imágenes sexualmente explícitas, por los daños causados a su reputación.

Es este un nuevo ángulo, de los muchos que surgirán, en una guerra que no se libra en una sola trinchera. Si una herramienta puede reproducir logos, marcas o elementos identificativos en contextos ofensivos, ¿quién responde ante la opinión pública de los heridos? El caso podría tener consecuencias para el diseño de filtros en modelos generativos y para la incorporación de mecanismos obligatorios de trazabilidad en las imágenes creadas, al menos con las IA del primer mundo.

Hollywood contraataca

En un movimiento de unión entre dos grandes poco habitual, Disney y NBCUniversal han demandado de forma conjunta a Midjourney, empresa a la que acusan de permitir la generación de imágenes basadas en personajes protegidos, como Elsa y Darth Vader. Los grandes estudios ya no están dispuestos a tolerar el uso no autorizado de su propiedad intelectual en contenido generado por IA, lo que marca otro punto de inflexión. Hasta ahora, era visto como algo inofensivo e incluso favorable, por la publicidad que aportaba. Más complicada parece la pelea por los posibles derechos derivados de transformar fotos familiares en versiones de Los Simpson o del famoso —ahora más— estudio Ghibli.

Si Midjourney pierde, especulan algunos expertos, podría desencadenarse una ola de acuerdos de licencia entre empresas de IA y titulares de propiedad intelectual. El caso recuerda en cierto modo el vivido en la industria musical cuando Napster, un servicio pionero de intercambio de archivos, permitió a finales de los años 90 y principios de los 2000 la descarga masiva y gratuita de música protegida. La industria discográfica reaccionó con una avalancha de demandas, que terminó con el cierre de la plataforma en 2001, pero no del todo con sus prácticas. 

El conflicto impulsó la transformación del modelo de distribución musical y dio lugar a plataformas legales como iTunes y, posteriormente, Spotify, con modelos de licencia que tampoco contentan a todas las partes. Que les pregunten a los músicos.

En el caso de la IA generativa, es tentador augurar que se establecerán canales de compensación, sistemas de derechos colectivos o licencias gestionadas por entidades independientes. Y que no harán felices a todos.

Denuncias con ritmo

De todos modos, los músicos son otro de los grandes colectivos afectados, por lo que ya se han visto diferentes denuncias y protestas, de desigual eficacia. Sony Music, Universal Music Group y Warner Records demandaron a las empresas de IA Suno y Udio en junio de 2024 con los argumentos ya conocidos: por entrenar sus modelos con grabaciones protegidas sin autorización. Aquí también se estableció el precio en 150.000 dólares por obra infringida, un listón de momento inestable.

Imagen del álbum «Is this what we want?», otra forma de canción protesta
Imagen del álbum «Is This What We Want?», otra forma de canción protesta

Por otro lado, más de mil músicos británicos, entre ellos Annie Lennox y Hans Zimmer (perdón a los omitidos), lanzaron en febrero de 2025 un álbum titulado Is This What We Want?, compuesto por 12 pistas de silencio. Protestaban así contra las propuestas gubernamentales que permitirían a empresas de IA utilizar obras protegidas sin el consentimiento de sus creadores. En un movimiento similar, en mayo de 2025 alrededor de 500 artistas, entre ellos Paul McCartney, Dua Lipa y Elton John, firmaron una carta dirigida al primer ministro británico en la que solicitaban la protección de sus derechos de autor. Veremos cómo termina esta canción.

The New York Times vs. OpenAI y Microsoft

El mundo de las letras, aunque sean las efímeras del periodismo, tampoco se libra de estas demandas. El periódico The New York Times demandó a OpenAI y Microsoft por utilizar sus artículos sin autorización para entrenar modelos de lenguaje como ChatGPT. La demanda sostiene que las empresas copiaron y reprodujeron contenido protegido para desarrollar productos comerciales sin compensar a los propietarios legítimos. Este mismo mes, un juez federal impulsó el caso al rechazar la petición de desestimación por parte de las demandadas. Oiremos hablar del caso.

La BBC y Perplexity AI: el periodismo en peligro

La BBC, por su parte, ha amenazado con emprender acciones legales contra Perplexity AI, alegando que utilizó su contenido periodístico sin autorización para el entrenamiento de la inteligencia artificial. Este caso plantea preguntas urgentes sobre el futuro del periodismo, especialmente cuando los resúmenes y artículos generados por IA reemplazan cada vez más a las fuentes tradicionales incluso en los motores de búsqueda, lo que ha propiciado un descenso dramático de visitas en lo que llevamos de 2025. 

Organizaciones periodísticas de todo el mundo observan esta disputa con atención. Existe el temor de que los modelos de IA estén erosionando el modelo de negocio de los medios, aprovechándose de su contenido sin generar tráfico ni ingresos para las fuentes originales. Algunos proponen tasas por acceso, sistemas de licenciamiento global o incluso alianzas entre medios e IA para crear modelos de beneficio compartido. Eso podría ser una solución con las grandes inteligencias artificiales, pero en paralelo no dejan de proliferar nuevas compañías, tantas que quizá solo sean controlables gracias a la ayuda de la IA. Paradojas de una guerra inédita. 

España, todavía en calma

En España aún no hemos vivido litigios de alto perfil relacionados con la IA y la propiedad intelectual. Lo más llamativo fue el impulso por parte del Gobierno de un proyecto de ley para obligar a etiquetar los contenidos generados por IA, con sanciones de hasta 35 millones de euros en caso de incumplimiento. Menos claro queda el panorama en los casos de disputa entre intereses, como los vividos fuera de nuestro país. Se propuso un sistema de licencias colectivas para facilitar el uso legal de obras protegidas en el entrenamiento de IA, pero el Ministerio de Cultura retiró el real decreto ante la falta de consenso con el sector cultural.

La novedad autóctona más llamativa ha sido la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), la primera en su tipo en la Unión Europea. Podría ser un hito o un artefacto inútil y costoso. Lo único seguro es que estamos en los prolegómenos de una guerra que no ha hecho más que comenzar. Una hora menos en Canarias.


La imagen que ilustra este artículo ha sido creada con ayuda de la inteligencia artificial de ChatGPT y Adobe Firefly.