Conoce Atico34 - Solicita presupuesto
Inteligencia artificial

¿Qué es la transparencia en la Inteligencia Artificial?

La transparencia es un concepto que actualmente está muy ligado a la inteligencia artificial, especialmente porque aparece en el Reglamento de Inteligencia Artificial (AIA) de la UE, pero ¿qué es la transparencia en la inteligencia artificial? ¿Qué obligaciones implica para desarrolladores y usuarios? ¿La transparencia en IA es lo mismo que en protección de datos? En las siguientes líneas respondemos todas estas cuestiones relativas al concepto de transparencia en la IA.

¿Qué es la transparencia en la inteligencia artificial?

La transparencia en la inteligencia artificial se refiere a la información que deben suministrar los proveedores de sistemas de inteligencia artificial a sus usuarios, siendo estos usuarios las entidades que van a desplegar los sistemas de IA. Es decir, se trata de que los desarrolladores de sistemas IA como ChatGPT proporcionen la información técnica relativa a su funcionamiento, capacidades y características (sin contravenir los derechos de propiedad intelectual), para que las entidades que proporcionarán este servicio a usuarios finales puedan, a su vez, cumplir con sus obligaciones legales respecto al deber de informar, especialmente cuando el sistema de IA se use para el tratamiento de datos personales, las personas sean destinatarias de contenidos creados por IA o el uso de la IA pueda afectar a los derechos fundamentales de los ciudadanos.

Así mismo, la transparencia en inteligencia artificial también se refiere a que se debe informar a los usuarios finales de que están tratando o interactuando con un sistema de IA.

De acuerdo al Reglamento de IA, la transparencia implica que «los sistemas de IA se desarrollarán y utilizarán de forma que permitan una trazabilidad y explicabilidad adecuadas, al tiempo que se hace saber a los seres humanos que se comunican o interactúan con un sistema de IA y se informa debidamente a los usuarios de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas de sus derechos».

Tipos de transparencia en la IA

En línea con lo expuesto en el punto anterior, cuando hablamos de tipos de transparencia en la IA, nos referimos fundamentalmente a:

  • La información que se facilita a los usuarios que desplegarán los sistemas de IA (personas físicas y jurídicas, autoridad pública, agencia u organismos de otra índole que utilice un sistema de IA bajo su propia autoridad) por parte de los desarrolladores, para que ambos puedan cumplir con las obligaciones que se prevén en la Propuesta de Reglamento de Inteligencia Artificial de la UE.
  • La información que se debe facilitar a los usuarios finales o los destinatarios a quien el uso de sistemas de IA pueda afectar a sus derechos y libertades.

Para los primeros, como decíamos en el punto anterior, tener la información relativa a cómo funcionan los sistemas de IA que van a utilizar es fundamental no solo para comprender e interpretar la información de salida, sino también con qué datos se ha generado y cómo se ha producido todo el proceso de toma de decisiones y conclusiones de la IA, para poder cumplir con sus correspondientes obligaciones legales en materia de trazabilidad y responsabilidad.

Para los segundos, deben ser conscientes de cuando están expuestos a contenido creado por IA, especialmente cuando nos referimos a contenidos multimedia que resulten falsificaciones (como sería el ejemplo de los deepfakes).

tarifas proteccion datos

¿Cuáles son las obligaciones respecto a la transparencia de la inteligencia artificial?

Siguiendo el Reglamento de IA de la UE, los desarrolladores y usuarios de sistemas de IA tienen las siguientes obligaciones respecto a la transparencia en IA:

  • Los sistemas de IA de alto riesgo deben diseñarse y desarrollarse de manera que garanticen un funcionamiento con un nivel de transparencia suficiente para que los usuarios interpreten y usen correctamente su información de salida. El nivel de transparencia de los sistemas de IA debe permitir a usuarios y desarrolladores cumplir con el resto de obligaciones previstas en el capítulo 3 del Título III del Reglamento.
  • Los sistemas de IA de alto riesgo deben ir acompañados de las instrucciones de uso correspondientes, que incluirán la información concisa, completa, correcta y clara que sea pertinente, accesible y comprensible para los usuarios. Esta información especificará:
    • La identidad y los datos de contacto del proveedor.
    • Las características, capacidades y limitaciones del funcionamiento del sistema de IA, en concreto:
      • Su finalidad prevista.
      • El nivel de precisión, solidez y ciberseguridad.
      • Cualquier circunstancia conocida o previsible asociada al uso del sistema de IA conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales.
      • Su funcionamiento en relación con las personas o los grupos de personas en relación con los que se pretenda usar el sistema.
      • Cuando proceda, especificaciones relativas a los datos de entrada o cualquier otra información pertinente respecto a los conjuntos de datos de entrenamiento, validación y prueba usados.
    • Cambios en el sistema de IA de alto riesgo.
    • Medidas de vigilancia humana, incluidas las medidas técnicas establecidas para facilitar la interpretación de la información de salida por parte de los usuarios.
    • Vida útil prevista del sistema de IA, así como las medidas de mantenimiento y cuidado necesarias para garantizar el correcto funcionamiento del sistema.
  • Los proveedores de sistemas de IA destinados a interactuar con personas físicas deben garantizar que dichas personas estarán informadas de que están interactuando con un sistema de IA (salvo por las circunstancias y el contexto, resulte evidente). Quedan exceptuados de esta obligación los sistemas de IA autorizados por la ley para fines de detección, prevención, investigación o enjuiciamiento de infracciones penales, salvo que estos sistemas estén a disposición del público para denunciar un delito.
  • Los usuarios de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica informarán del funcionamiento del mismo a las personas físicas expuestas a él. Quedan efectuados los sistemas de IA para la categorización biométrica autorizados por la ley para fines de detección, prevención e investigación de infracciones penales.
  • Los usuarios que empleen sistemas de IA para manipular o generan contenido de imagen, sonido o vídeo que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes y que puedan conducir a una persona a pensar que son auténticos o verídicos, deben hacer público que el contenido ha sido generado o manipulado con IA.

A efectos del Reglamento IA, los sistemas IA de alto riesgo son aquellos que se usan en infraestructuras críticas, formación educativa, componentes de productos, sistemas de conducción autónoma y aquellos utilizados por bancos para evaluar la solvencia y la calificación crediticia de los ciudadanos. Mientras que los sistemas IA de riesgo limitado y mínimo serían el resto (aquí se incluyen los deepfakes, por ejemplo).

transparencia inteligencia artificial

¿Qué información se debe facilitar?

De lo expuesto en los puntos anteriores, la información que desarrolladores de IA deben facilitar a usuarios es aquella relativa a:

  • Las instrucciones de funcionamiento del sistema de IA (manuales).
  • Registros de los datos de entrada y salida (tanto de entrenamiento como de uso).
  • Riesgos para la seguridad, la salud y los derechos fundamentales de los usuarios finales.

Cabe señalar que la información que se proporciona es técnica y legal, ya que está destinada a las entidades que desplegarán los sistemas de IA y no a los usuarios finales, a quienes, cómo hemos señalado ya, habrá que informar cuando estén ante un sistema de IA y los efectos que puede tener respecto a las decisiones automatizadas y sus derechos fundamentales, así como cuando estén expuestos a material audiovisual creado por IA, en cuyo caso la información deberá ser comprensible y accesible para ellos.

¿Qué riesgos supone la falta de transparencia en la IA?

La falta de transparencia en la IA supone ciertos riesgos que podrían derivar en consecuencias negativas para las personas, las organizaciones y la sociedad en su conjunto. Entre estos riesgos destacan:

  • La pérdida de confianza y control sobre los sistemas de IA, cuando las decisiones que toman o conclusiones a las que llegan no se entienden o no se explica cómo se ha llegado a ellas.
  • Sesgos y discriminaciones en los sistemas de IA, que pueden vulnerar los derechos fundamentales de diferentes grupos y minorías.
  • Vulneración de la privacidad al usar datos personales sin el consentimiento y/o conocimiento de los interesados.
  • Vulneración de la propiedad intelectual, al usar contenidos sin autorización de sus creadores.
  • Riesgos para la seguridad y para los derechos fundamentales al utilizar los sistemas de IA con fines maliciosos.

Mitigar y prevenir estos riesgos y las consecuencias que pueden derivarse de ellos depende, en gran medida, de la transparencia en la inteligencia artificial y de la aplicación de la ética digital y buenas prácticas en el desarrollo, despliegue y utilización de los sistemas de IA, aparte de las regulaciones y normas que el legislador desarrolle para su regulación.

Transparencia en la IA vs. Transparencia en protección de datos

La transparencia es un principio de especial relevancia para protección de datos e inteligencia artificial, sin embargo, su aplicación no se lleva a cabo de igual manera y existen diferencias entre ambos ámbitos en lo que respecta a las obligaciones, la información que se debe facilitar y quiénes deben cumplir con este principio.

A lo largo de este artículo ya hemos visto que las obligaciones respecto a la transparencia en inteligencia artificial recaen sobre desarrolladores y usuarios de sistemas de IA y que la información que deben facilitar es eminentemente técnica y legal.

En el caso de la protección de datos, las obligaciones derivadas del principio de transparencia recaen en responsables y encargados del tratamiento, que deben informar a los interesados de los tratamientos de datos personales que van a realizar, su finalidad, quién los llevará a cabo, qué datos se tratarán y por cuánto tiempo, entre otros aspectos señalados en los artículos 13 y 14 del RGPD. Así mismo, la información, en este caso, debe ser clara y fácil de entender, puesto que se suministra a los interesados (los titulares de los datos).

Así, es posible que un responsable o encargado del tratamiento emplee un sistema de IA para el tratamiento de datos, en cuyo caso informará de ello en la medida que este afecte a los derechos y libertades de los interesados.

En cualquier caso, responsables y encargados del tratamiento que usen sistemas de IA, deben estar informados suficientemente sobre cómo funciona el sistema y cómo gestiona los datos personales, para poder cumplir con sus obligaciones respecto al RGPD.

Finalmente, cabe señalar que el Reglamento de IA de la UE fue aprobado y entrará en vigor a lo largo de 2026 en diferentes fases.