¡Pide presupuesto en 2 min! ✓
Inteligencia artificial

El primer marco normativo internacional sobre ética e Inteligencia Artificial

Los Estados miembros de la UNESCO han anunciado el primer acuerdo mundial sobre ética e Inteligencia Artificial, un acuerdo con el que se quiere crear un marco ético mundial para el uso de los sistemas de IA, de manera que contribuyan a la mejora y avance de la humanidad. En este artículo analizaremos las principales claves de esta «guía ética para el uso responsable de la Inteligencia Artificial».

El acuerdo de la UNESCO sobre la ética de la Inteligencia Artificial

No hace mucho, hablar de Inteligencia Artificial sonaba a ciencia ficción y algo que solo estaba en las películas, pero lo cierto es que los sistemas de IA nos llevan acompañando ya algunos años; el machine learning, los algoritmos, el Big Data…, son conceptos dentro de estos sistemas, que han llegado para facilitarnos la vida y, bien aplicados, para mejorar y propiciar el avance de la humanidad en diferentes ámbitos, como el económico o el medioambiental, y solucionar problemas, como los derivados de la pandemia de Covid-19. Pero también tienen el potencial de usarse de forma inadecuada, de caer en abusos y perjudicar los derechos y libertades de las personas.

Los avances que la Inteligencia Artificial está ya propiciando y los que seguirán llegando, no se pueden negar, pero tampoco se puede negar el hecho de con ellos llegan también nuevos retos. La IA, pese a basarse en lógica y matemáticas, no está exenta de sesgos y estereotipos de todo tipo, puesto que quienes la crean y desarrollan los tienen, como los tienen quienes facilitan los datos sobre los que la IA aprende. Esto lo podemos ver en IA que reproducen, por ejemplo, prejuicios de género o étnicos.

A esto, se suman otros peligros derivados del uso de la IA, como la vigilancia masiva o el empleo de tecnologías de IA poco fiables en el sistema de justicia.

Por ello, en 2018, la UNESCO consideró necesario crear un marco ético mundial para el desarrollo y uso de la Inteligencia Artificial. La Recomendación sobre la ética de la IA es la culminación de la colaboración de cientos de expertos y años de negociaciones de los Estados miembros de la UNESCO.

Esta Recomendación tiene como objetivo lograr las ventajas que la IA puede aportar a la sociedad, a la vez que reduce los riesgos que puede conllevar, de manera que promueve un desarrollo de estos sistemas que respeten los derechos humanos, los fomenten y que, además, contribuyan a la consecución de los Objetivos de Desarrollo Sostenible. Así, esta Recomendación sobre la ética de la Inteligencia Artificial de la UNESCO aborda temas relativos a la transparencia, la rendición de cuentas y la privacidad y la gobernanza de los datos, entre otras cuestiones, sustentada en tres pilares fundamentales, que vemos a continuación.

tarifas compliance

Protección de datos

El primer pilar de la Recomendación es la protección de datos; en ella se pide que se vaya más allá de lo que hacen empresas tecnológicas y gobiernos para garantizar una mayor protección de las personas y sus datos, se asegure la transparencia de su recogida y uso, así como la capacidad de las personas para poder actuar y controlar sus datos personales.

La Recomendación llega a decir que las personas deberían poder acceder a sus registros de datos personales e, incluso, poder borrarlos si así lo desean. También especifica que se deben incluir medidas que permitan mejorar la protección de datos y el conocimiento de las personas para controlar sus propios datos. Así mismo, da mayor capacidad a los organismos reguladores de todo el mundo para hacer cumplir las correspondientes normativas de protección de datos.

Marcadores sociales y vigilancia masiva

El segundo pilar se centra en el uso de sistemas de IA para la calificación social y la vigilancia masiva. Se trata de tecnologías muy invasivas con potencial evidente para vulnerar los derechos humanos y las libertades fundamentales, con un uso generalizado.

La Recomendación hace hincapié en que a la hora de elaborar sus propios marcos normativos, los Estados miembros deben tener en cuenta que la responsabilidad última y la rendición de cuentas de estos sistemas de IA debe siempre recaer en seres humanos, sin otorgar personalidad jurídica a las tecnologías de IA por sí mismas.

Es decir, que si un sistema de vigilancia vulnera derechos fundamentales, sus responsables deben ser las personas que están detrás de su uso o desarrollo, de otra forma, si a ese sistema de vigilancia basado en IA se le atribuye personalidad jurídica y se descarga sobre él cualquier mal uso o abuso, no habría, realmente, ningún responsable que acarreará con posibles consecuencias legales.

Supervisión y evaluación

El tercer pilar recoge las bases de las herramientas que podrán ayudar a la aplicación del marco ético y normativo de la IA.

Por un lado, habla de la Evaluación del Impacto Ético, una herramienta cuyo objetivo es ayudar a los países y empresas que desarrollen y desplieguen sistemas de IA a evaluar el impacto que dichos sistemas tendrán sobre la vida de las personas, la sociedad y el medio ambiente.

Por otro lado, la metodología de evaluación del grado de preparación ayudará a los Estados miembros de la UNESCO a analizar y evaluar su grado de preparación en cuanto a infraestructura jurídica y técnica para implementar sistemas de IA. Se trata de una herramienta destinada a mejorar la capacidad institucional de los países y a recomendar medidas adecuadas para garantizar la aplicación de la ética en la práctica.

Así mismo, se recomienda a los Estados miembros a considerar la posibilidad de crear un mecanismo independiente de ética de la Inteligencia Artificial para supervisar los esfuerzos de auditoría y seguimiento continuo.

ética inteligencia artificial

¿Por qué es necesario un marco normativo sobre ética e IA?

Ya hemos mencionado que, pese a que tiene un gran potencial para mejorar la vida de las personas, el desarrollo e implantación de sistemas de IA sin basarse en ningún tipo de ética o carente de un marco normativo puede resultar problemático.

Antes hemos mencionado algunos de esos problemas con la Inteligencia Artificial, como los sesgos que se acaban incorporando en ella, algo que puede ocurrir de forma inconsciente y no planeada (como dijimos sobre IA e igualdad de género) o, que incluso puede ocurrir de forma totalmente intencional (la IA no deja de ser, todavía, un sistema desarrollado y programado por personas).

Sistemas de IA que repiten cualquier tipo de sesgo supone que sus decisiones y juicios solo conseguirán generar más desigualdad en diferentes ámbitos.

Además, actualmente, debido a la existencia de vacíos legales, los sistemas o herramientas de IA no son transparentes, es decir, las personas no sabemos cómo funcionan y en qué basan sus decisiones, pudiendo provocar que estas nos resulten ininteligibles. Por ejemplo, no sabemos exactamente qué datos o cómo calcula un sistema de IA la productividad o rendimiento que debe tener un puesto de trabajo, y esto es algo que puede determinar la continuidad del empleado que ocupa ese puesto de trabajo. O cómo funcionan los algoritmos que emplean plataformas como Glovo para distribuir el trabajo entre sus riders.

En ese sentido, España es uno de los primeros países en abordar la regulación del uso de IA en el trabajo con la denominada ley de riders, que obliga a las empresas a informar los representantes sindicales sobre los algoritmos que emplean y pueden afectar a la toma de decisiones relacionadas con las condiciones de trabajo o el mantenimiento del empleo.

Esto, junto a la vigilancia masiva (con los sistemas de reconocimiento facial) y otros problemas y dilemas éticos derivados del desarrollo y uso de sistemas de IA, tienen, como decíamos, el potencial de perpetuar desigualdades y vulnerar derechos y libertades fundamentales de los individuos. Por lo tanto, y en palabras de la subdirectora general de Ciencias Sociales y Humanas de la UNESCO, «las decisiones que afectan a millones de personas deben ser justas, transparentes y contestables». Las nuevas tecnologías deben ayudar a la sociedad a avanzar y superar los problemas de la desigualdad o la crisis medioambiental, no a perpetuarlos o profundizarlos.

Ejemplos de dilemas éticos en la IA

Los sesgos son uno de los ejemplos de dilemas éticos en el uso de IA, pero no es el único; encontramos otros en los sistemas inteligentes, como los coches autónomos y su toma de decisiones ante situaciones imprevistas en la carretera (seguro que habéis oído cómo debería decidir un coche en una situación en la que para evitar un accidente para sus ocupantes, debe «elegir» entre atropellar a un peatón o no). O la autoría y autenticidad en sistemas de IA capaces de crear o recrear obras de arte. O cómo se emplea o puede llegar a emplear la IA en los sistemas judiciales para agilizarlos y asegurar sentencias más justas.

Otros acuerdos internacionales sobre ética e Inteligencia Artificial

La UNESCO no es la única organización internacional preocupada con el problema ético de la Inteligencia Artificial, la UE ha elaborado ya dos propuestas sobre ello, en concreto nos referimos la Resolución sobre la Inteligencia Artificial Ética (RIAE) y la Resolución sobre la Inteligencia Responsable (RIAR) del Parlamento Europeo de octubre de 2020.

De ambas resoluciones se pueden extraer una serie de principios regulatorios del uso de la IA en la UE, que tratan la necesidad de regular el uso de la IA, del problema de los algoritmos y los sesgos, de la protección de los derechos y libertades de las personas, de la responsabilidad social y civil y la imputabilidad, la sostenibilidad y la gobernabilidad.

Con la tecnología siempre avanzando más rápido que las leyes, parece que el binomio ética e inteligencia artificial es una necesidad o una urgencia que todos los países deben comenzar a afrontar, especialmente ahora que cuentan con el primer marco ético y normativo internacional de la UNESCO. Es muy difícil adelantarse al desarrollo tecnológico, pero se puede empezar a legislar para evitar que algunos problemas se sigan agravando en la sociedad por el uso no regulado de sistemas de IA.