La existencia de sistemas seguros y efectivos, la protección frente a la discriminación de los algoritmos y el respeto a la privacidad son algunos de los derechos de los ciudadanos respecto al uso de sistemas automatizados dotados de inteligencia artificial (IA) que se recogen en un documento publicado por la Casa Blanca con el título de “Blueprint for an AI Bill of Rights”, que puede traducirse como “Proyecto de Declaración de Derechos sobre Inteligencia Artificial”. El texto ha asido elaborado por la Oficina de Ciencia y Tecnología de la Casa Blanca.
El documento se aplica a los sistemas automatizados con potencial de impactar en los derechos y oportunidades de los ciudadanos
El documento, que no es vinculante, contiene un total de cinco principios o derechos básicos y remite a ampliaciones y precisiones sobre la puesta en práctica de cada uno de ellos. Según precisan sus responsables, “aunque muchas de las preocupaciones que se abordan en este documento marco derivan del uso de la IA, las capacidades técnicas y las definiciones específicas de estos sistemas cambian al ritmo de la innovación y los daños potenciales de su uso ocurren incluso con herramientas tecnológicamente menos sofisticadas”.
Así, el documento se aplica a “los sistemas automatizados que tienen un potencial significativo de impactar en los derechos, oportunidades y acceso a recursos o servicios básicos de los ciudadanos norteamericanos".
El Bill of Rights se ha elaborado a partir del examen de las experiencias de las personas y con aportaciones de investigadores, expertos en tecnología, abogados, periodistas y legisladores. Los derechos que recoge, seguidos de algunas precisiones y detalles sobre los mismos, son los siguientes:
- Sistemas seguros y efectivos: las personas tienen derecho a la protección de los riesgos que representan los sistemas automatizados inseguros e inefectivos.
Para evitar los problemas de inseguridad y falta de eficiencia, los sistemas han de desarrollarse después de consultar a diversas comunidades, grupos de interés y expertos para identificar riesgos potenciales, así como ser sometidos a pruebas previas a su lanzamiento. Los sistemas deben estar diseñados para proteger proactivamente a las personas de los malos usos. Estas tienen asimismo derecho a la protección frente al uso de datos inapropiados o irrelevantes en el diseño y desarrollo de los sistemas.
- Protección frente a la discriminación por parte los algoritmos: ninguna persona puede ser discriminada por los algoritmos y los sistemas deben ser diseñados de modo equitativo.
Este tipo de discriminación ocurre cuando los sistemas automatizados contribuyen, de manera injustificada, a la discriminación negativa de determinadas personas por su raza, etnicidad, condición sexual, identidad de género, edad, religión o cualquier otra circunstancia protegida por la ley. Los sistemas han de diseñarse de modo que, por un lado, no incurran en este tipo de discriminación -que puede constituir una violación de la ley- y, por otro, incluyan revisiones proactivas de su equidad, uso de datos representativos y protección contra los simuladores de rasgos demográficos.
- Protección de la privacidad de los datos: las personas han de estar protegidas, desde dentro de los propios sistemas, frente a prácticas abusivas relacionadas con los datos y deben tener capacidad de decisión sobre el modo en que se usan los mismos.
Los sistemas automatizados han de diseñarse de modo que no violen la privacidad de las personas y ha de asegurarse que solo recogen los datos estrictamente necesarios para cumplir con su función. Asimismo, deben pedir y respetar la autorización de las personas para recoger, usar acceder, transferir y destruir sus datos. Los sistemas no deben incluir por defecto opciones que trastornen la libertad de decisión de las personas e invadan su privacidad.
La protección debe ser especialmente rigurosa en caso de datos sensibles como los relativos a la salud, el trabajo, la educación, las finanzas o los antecedentes penales. La monitorización constate de esos datos es una práctica indeseable en áreas como la educación, el trabajo, la vivienda u otros contextos en los que ese rastreo pueda limitar los derechos o las oportunidades.
- Aviso y explicación: las personas tienen derecho a saber que se está usando un sistema automatizado y a entender cómo y por qué contribuye a generar resultados que tienen un impacto sobre ellas.
Los diseñadores y desarrolladores de los sistemas automatizados han de poner a disposición de quien la precise documentación redactada en un lenguaje accesible sobre el funcionamiento del sistema y el papel que este desempeña, el aviso de que está en funcionamiento y las organizaciones o personas responsables del mismo. Además, las explicaciones sobre los resultados que ofrece el sistema han de ser claras, puntuales y accesibles.
- Alternativas humanas, consideración y recurso: las personas tienen derecho, cuando sea apropiado, a optar por no emplear un sistema automatizado y tener acceso a alguien que pueda tomar en consideración y solucionar rápidamente los problemas que encuentre.
La renuncia a un sistema automatizado en favor de una alternativa humana ha de deberse a causas justificadas, cuya validez se determinará sobre la base de las expectativas razonables en un contexto concreto y con el foco puesto en la protección de la persona frente a impactos negativos. El acceso, a través de un recurso a la consideración del problema y eventual solución del mismo por parte de una alternativa humana está justificado si el sistema automatizado falla, genera un error o la persona quiere recurrir o elevar una protesta sobre el impacto que el sistema tiene sobre ella. El acceso a una alternativa humana ha de ser equitativo, efectivo y no imponer una carga excesiva quien lo demande.
Un reto para la democracia
El proyecto de derechos que ha elaborado la Casa Blanca en relación con los sistemas automatizados mediante IA parte del planteamiento, según se explica en la introducción de que “las amenazas a los derechos humanos que comportan ciertos usos de la tecnología, los datos y la automatización de procesos son uno de los grandes retos de la democracia. En muchas ocasiones, estas herramientas se usan para limitar oportunidades y el acceso a recursos fundamentales como sanidad, empleos o créditos”.
Noticias Relacionadas
Una transformación imparable, pero gobernable: los retos de la Sociedad Digital en España
{"id":23228,"titular":"Una transformación imparable, pero gobernable: los retos de la Sociedad Digital en España","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/telefonica-sociedad-digital-espana-2022.jpg","path":"/actualidad/transformacion-imparable-telefonica-informe-sociedad-digital-espana-2022"}Google suspende de empleo a un ingeniero que asegura que una IA es sensible y tiene personalidad
{"id":22921,"titular":"Google suspende de empleo a un ingeniero que asegura que una IA es sensible y tiene personalidad","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/google-inteligencia-artifical-sensible.jpg","path":"/actualidad/google-suspende-ingeniero-inteligencia-artificial-sensible"}
Se afirma asimismo que los algoritmos reproducen sesgos y tratos desiguales y hay violaciones de la privacidad, lo que se califica de“resultados muy dañinos, pero no inevitables y además se producen al mismo que tiempo que los muchos beneficios que la automatización de sistemas y los algoritmos han generado en numerosos campos de actividad”.
Pero advierte de que este progreso no se debe producir a expensas de los derechos civiles y los valores democráticos, “principios fundacionales del país y piedras angulares de la Administración Biden. El gobierno o federal trabaja en favor de la extensión de los derechos civiles, la igualdad de oportunidades y la justicia racial y el derecho a la privacidad”.