Conoce Atico34 - Solicita presupuesto
Inteligencia artificial

La Inteligencia Artificial (IA) y los Derechos de autor

La llegada al gran público de las IAs generativas, como ChatGPT, Midjourney o Copilot, ha puesto de relieve los problemas, desafíos y polémicas en torno al uso de inteligencia artificial y derechos de autor; ¿la IA se «inspira» o plagia el contenido? ¿Qué ocurre con los contenidos protegidos por derecho autor utilizados para entrenar los modelos de IA, se debe compensar a sus titulares? ¿La inteligencia artificial tiene derechos de autor?

En las siguientes líneas daremos respuesta a estas y otras cuestiones relativas a inteligencia artificial y propiedad intelectual.

La relación entre la inteligencia artificial y los derechos de autor

La aparición de las IAs generativas ha puesto de manifiesto la relación entre la inteligencia artificial y los derechos de autor, una relación no exenta de polémica debido a la forma en la que se ha entrenado y se sigue entrenando a estos modelos de IA, usando contenidos protegidos por derechos de autor sin consentimiento de sus titulares. Y no lo decimos nosotros o los detractores de las IAs, sino sus propios creadores.

Sam Altman, creador de OpenAI (ChatGPT), reconoció ante la Cámara de los Lores de Reino Unido que «sería imposible entrenar los modelos actuales de IA sin material con derechos de autor».

Internet se ha convertido en el escaparate y forma de promocionarse de muchos artistas y creadores de contenido, que comparten sus obras y creaciones de forma «libre» a través de redes sociales y páginas y plataformas dedicadas al arte, la escritura o la fotografía, por citar algunas. Muchos de estos contenidos se han usado para entrenar los modelos de IA generativa sin pedir permiso a sus autores.

Pero las empresas detrás de estos modelos de IA habrían ido incluso más allá y habrían usado contenidos claramente protegidos por copyright, como novelas, artículos de periódico, ensayos, ilustraciones de bancos de imágenes, etc. Contenidos digitalizados, pero cuyo acceso está limitado por un pago. Sin embargo, el pago de un contenido no permite su uso y reproducción, ya que sería una vulneración de los derechos de autor (pese a que OpenAI, en su enfrentamiento contra el New York Times, haya esgrimido el concepto de fair use de la jurisprudencia estadounidense, que reconoce que se pueden usar porciones de obras con fines transformativos, siempre que el resultado no suponga una pérdida económica para el autor original).

A esto habría que sumar la falta de transparencia de las empresas detrás de los modelos de IAs generativas, que no terminan de aclarar con qué datos han sido entrenados sus sistemas. Y solo ahora, tras las diversas polémicas en torno a la inteligencia artificial y la propiedad intelectual, han empezado a reconocer que se han utilizado contenidos protegidos por derechos de autor.

Parece, entonces, que el problema entre inteligencia artificial y derechos de autor radica en el consentimiento y la falta de transparencia, tal y como ocurre en el ámbito de la inteligencia artificial y protección de datos, en el que los usuarios aún no tenemos completamente claro cuáles de nuestros datos personales se han utilizado o se están utilizando para entrenar modelos de IA.

Podríamos pensar que los desarrolladores de modelos de IA generativa han estado aprovechando algún tipo de vacío legal para entrenar sus modelos con contenidos subidos a internet, pero sabemos que esto no es del todo cierto, porque los derechos de autor (en la gran mayoría de legislaciones nacionales e internacionales) surgen en el momento de creación de la obra, es decir, que aunque una obra o un contenido artístico o científico no esté registrado, sus derechos de autor siguen estando protegidos. Que empresas como OpenAI, Google o Meta hayan decidido usar estos contenidos para entrenar sus modelos de IA sin pedir el consentimiento de sus autores o siquiera reconocerlo en sus notas técnicas, supone una vulneración de las leyes de propiedad intelectual de muchos países.

Así mismo, este mal uso de la inteligencia artificial ha creado una notable polémica entre desarrolladores y defensores de la IA generativa y creadores de contenido (escritores, ilustradores, actores, actores de doblaje, traductores, etc.), ya que estos modelos, como herramientas, se están empleando ya para sustituir el trabajo de profesionales; las empresas recurren a estas herramientas de IA para ahorrarse costes (ya hemos visto ejemplos con portadas de libros, de catálogos, de carteles, de artículos y de traducciones). Los creadores no solo ven peligrar su trabajo, sino que, además, ese riesgo viene propiciado por unos sistemas que han podido ser entrenados con sus propias creaciones.

Pero los problemas y desafíos que plantea la inteligencia artificial para los derechos de autor no acaban aquí.

tarifas proteccion datos

¿La inteligencia artificial vulnera los derechos de autor?

De lo expuesto en el punto anterior, podemos decir que sí, la IA puede vulnerar los derechos de autor en su fase de entrenamiento, al usar contenido protegido por copyright para alimentar los modelos de IA generativa. ¿Pero también infringe la normativa de propiedad intelectual con sus «creaciones»? ¿La IA aprende y se inspira o plagia el contenido que se ha usado para entrenarla?

Los modelos de IA generativa se entrenan con millones de textos o imágenes, que son «traducidos» a datos que sean capaces de leer para después, cuando reciben un «prompt» (la petición de una persona para obtener un resultado), «crear» un contenido que refleje ese prompt. ¿Es este resultado una copia o un nuevo contenido original?

Para los defensores de la IA, se trata de lo segundo, un contenido original creado tras un proceso de aprendizaje y no una copia o plagio tal y como lo entendemos actualmente. Para ellos, lo que hace la IA generativa no es muy diferente a lo que hacen los artistas cuando se inspiran en el trabajo de otro artista ¿Pero realmente se puede afirmar eso cuando un modelo de IA se basa en el contenido de otros? Especialmente cuando no sabemos qué contenido se ha usado para entrenar la IA.

En cambio, para los detractores, la IA combina y copia de contenidos originales para producir sus resultados. Para ellos no se trata de inspiración, sino de copia de estilo, forma, disposición, etc. Si el plagio entre personas es ilícito, ¿por qué no va a serlo cuando lo hace una IA?

Además, para responder a esta cuestión hay que tener en cuenta una pregunta más: ¿la IA aprende realmente? ¿Es capaz de relacionar e inferir información y sacar conclusiones como lo hacemos los humanos? ¿O solo se limitan a hacer predicciones para dar una respuesta aparentemente humana?

La respuesta depende de la óptica y de en qué lado de la discusión te encuentres. Para los defensores de la IA, las redes neuronales tienen capacidad de aprender (es lo que alega OpenAI para esquivar los problemas con los derechos de autor). Para sus detractores no es así, los modelos de IA generativa no aprenden realmente, sino que predicen patrones del lenguaje de una manera muy eficaz, tanto, que a veces nos parece estar hablando con una persona o recibiendo contenido escrito por una mano humana. Pero ya hemos visto cómo estos modelos se equivocan y dan respuestas falsas o erróneas.

Con el tiempo y el desarrollo, es posible que estos modelos de IA sean capaces de llegar más lejos y crear contenidos indistinguibles de los de un humano y que no se limiten a la predicción de patrones, sino que ofrezcan un auténtico contenido original, creado por la IA. Pero aún no estamos ahí y para llegar a ese punto, los modelos de IA deben seguir entrenándose con ingentes cantidades de contenidos, muchos de los cuales están protegidos por derechos de autor.

inteligencia artificial y derechos de autor

¿La inteligencia artificial tiene derechos de autor?

Esta cuestión ya se planteó en Estados Unidos ante su Oficina de Derechos de Autor en 2018 y fue tajante en su respuesta; no, a las obras creadas íntegramente por una máquina, sin intervención humana (el prompt no cuenta aquí), no se les puede atribuir derechos de autor ni protegerlos, puesto que estos derechos solo pueden atribuirse a seres humanos.

Más cerca, la ley sobre derechos de autor en España (Ley de Propiedad Intelectual) dice textualmente en su artículo 5 que el autor es la «persona natural que crea alguna obra literaria, artística o científica», por lo tanto, en España tampoco se pueden atribuir derechos de autor a un modelo de IA o los creadores detrás de él.

En cualquier caso, es muy probable que esta cuestión siga debatiéndose a medida que lleguen nuevos casos a los tribunales relativos a ella y se vaya generando una jurisprudencia nacional e internacional que pueda derivar en una modificación de las regulaciones actuales.

¿Quién es el autor de una obra creada por IA?

Al no reconocer los derechos de autor para la IA, todo el contenido generado por esta será de dominio público y que ninguna entidad o particular podrá obtener beneficios de su explotación, lo que a su vez implica que cualquiera pueda hacer un uso libre de los contenidos generados por IA (por ejemplo, se podrían tomar voces clonadas con IA y emplearlas para realizar doblajes en animaciones o vídeos que requieran una voz narrativa de fondo, aunque si la voz es reconocible, quizás podríamos chocar con un problema de protección de datos).

Cabe señalar aquí, no obstante, que si para generar un contenido con IA se ha usado material de un autor concreto, por él mismo o con su autorización, y este ha participado en el proceso de edición posterior (o un tercero autorizado por este), la obra o contenido resultante sí podría estar sujeto a derechos de autor (sería el caso, por ejemplo, de un videoclip creado con IA usando ilustraciones de un mismo autor, hecho por este).

Denuncias sobre inteligencia artificial y propiedad intelectual

Las empresas de sistemas de IA ya han empezado a hacer frente a las primeras denuncias contra ellas, en concreto por el uso de contenidos protegidos por derechos de autor. Tal es el caso de la denuncia contra OpenAI interpuesta por la actriz estadounidense Sarah Silverman; en esta denuncia, la actriz alegaba que sus derechos de autor habrían sido infringidos al usar su contenido para entrenar ChatGPT, en concreto de la obra Bedwetter. A esta denuncia se habrían sumado tres autores más.

Los escritores Paul Tremblay y Mona Awad habrían presentado una denuncia similar contra LLaMA.

La agencia de fotografía Getty Images habría denunciado a Stability AI por infracción de copyright al haber usado millones de imágenes protegidas para entrenar su modelo de IA.

Lo que los tribunales digan sobre estas denuncias, sentará un precedente sobre una de las cuestiones más polémicas derivada de la inteligencia artificial y los derechos de autor.

¿Se puede solucionar el conflicto entre IA y derechos de autor?

Una posible solución para solucionar este conflicto entre inteligencia artificial y derechos de autor pasa necesariamente por que las empresas desarrolladoras de modelos de IA generativa sean más transparentes y reconozcan qué contenidos protegidos por derechos de autor han empleado y siguen empleando para entrenar a sus modelos.

Además, también será necesario recabar el consentimiento de autores y creadores para el uso de sus contenidos en el entrenamiento de los modelos de IA. Aquí la solución de opt-out que plantea y usa OpenAI (y otras empresas) no parece ser suficiente para evitar el scraping de contenido protegido por copyright de internet, puesto que obliga a los creadores y titulares de derechos a que sean ellos los que «activen» esta opción (en el caso de OpenAI, se trata de añadir una línea de código para indicar a su GPTBot a que no extraiga contenido de un sitio concreto). La opción debería plantearse a la inversa, es decir, que los creadores y titulares de derechos de autor tuvieran que dar su consentimiento para el uso de esos contenidos y no usarse hasta obtenerlo (no muy diferente a cómo funciona el consentimiento para cookies en el RGPD y la LSSI).

En línea con lo anterior, también habría que compensar justamente a los creadores cuyos contenidos son usados para entrenar modelos de IA.

Así mismo, se hace necesario regular la inteligencia artificial para poder gestionar y obligar a reconocer el uso de contenido protegido por derechos de autor que hacen las IAs generativas, especialmente cuando se presentan contenidos en los que se ha hecho uso de inteligencia artificial para su creación.

En ese sentido, la Ley de Inteligencia Artificial de la UE ya ha dado un paso significativo, puesto que obliga a estos sistemas a presentar documentación técnica, cumplir con la legislación sobre derechos de autor y ofrecer un resumen detallado sobre qué contenidos se han utilizado para entrenar el modelo. Así mismo, también obliga a indicar cuándo un contenido está hecho con IA, en previsión de evitar el mal uso de la IA para crear y propagar bulos y noticias falsas.