La ley europea de IA incluye nuevas prohibiciones y medidas de control de riesgos y encara su recta final

  • Los sistemas como ChatGPT deberán identificar el contenido generado por inteligencia artificial
  • Google se ha visto obligado a posponer el lanzamiento de Bard, su chatbot de IA, en la Unión Europea
mano robótica sobre teclado

El Parlamento Europeo ha dado luz verde al texto de la Ley de Inteligencia Artificial (IA), aprobando así su posición negociadora de cara a las conversaciones con los Estados miembros. De estos diálogos, que suponen la última fase del proceso, saldrá el documento definitivo que se prevé se aprobará por las autoridades comunitarias a finales de este año, coincidiendo con la presidencia española del Consejo de la Unión Europea. 

El texto aprobado esta semana es una versión más estricta que la que comenzó a gestarse en abril de 2021. Y es que a la luz de la popularización de los sistemas de inteligencia artificial generativa, la propuesta de norma ha incluido medidas relacionadas con herramientas como ChatGPT, desarrollado por OpenAI. Entre otras novedades, la ley incluye ahora prohibiciones adicionales sobre el uso de esta tecnología para sistemas de vigilancia biométrica. No obstante, el texto mantiene su enfoque basado en riesgo, y en este sentido, se establecerán tres niveles de riesgo. 

Niveles de riesgo y nuevas prohibiciones

A este respecto, por un lado, se consideran los sistemas de riesgo bajo o moderado, entre los que se podrían encontrar en videojuegos o algunos asistentes conversacionales. Se entiende que estos no suponen una gran amenaza y estarían sometidos a obligaciones generales de transparencia. 

Los sistemas de alto riesgo incluirán los que puedan afectar al medio ambiente o la salud

Por otro lado, se encontrarían los sistemas de alto riesgo, como los aplicados en infraestructuras críticas como transporte, educación, salud, aplicación de las leyes. Según la normativa, estos deberán contar con sistemas adecuados de evaluación y mitigación de riesgo o responder a una alta calidad de los conjuntos de datos que alimentan el sistema.

En las nuevas medidas, se ha estipulado que el nivel de alto riesgo incluya también los sistemas de IA que puedan afectar significativamente al medio ambiente o a la salud, la seguridad o los derechos fundamentales de las personas. Asimismo, se han añadido los sistemas de IA utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).

Por último, la ley contempla medidas para aquellos sistemas de IA que presentan un nivel inaceptable para la seguridad de las personas, como los utilizados para la puntuación social o la clasificación de personas a partir de su comportamiento o características personales), que quedarían totalmente prohibidos. Además, los eurodiputados han añadido prohibiciones sobre usos intrusivos y discriminatorios de la IA, como los siguientes:

  • Sistemas de identificación biométrica remota, en tiempo real, en espacios públicos
  • Sistemas de identificación biométrica remota, a posteriori, con la excepción de usos policiales en investigaciones por delitos graves y con autorización judicial
  • Sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo género, raza, estatus de ciudadanía, religión u orientación política)
  • Sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo)
  • Sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza
  • Rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad)

La norma que pasará a discutirse con los Estados miembros incluye obligaciones para la IA de uso general. Así, se establece que “los proveedores de modelos fundacionales tendrán que evaluar y mitigar los posibles riesgos (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) y registrar sus modelos en la base de datos de la UE antes de comercializarlos en la UE”.

Noticias Relacionadas

Cerebral Valley o cómo la IA está devolviendo a los emprendedores digitales a San Francisco

En el coche y en una reunión a la vez: Cisco y Audi presentan una app para el trabajo híbrido en varios modelos de la marca

Además, se indica que los sistemas de IA generativa basados en esos modelos, como sería ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia. Entre estos se incluye la identificación del contenido como generado por IA, con el objetivo de ayudar a distinguir las falsificaciones de las imágenes auténtica; y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.

“Queremos que el potencial positivo de esta herramienta para la creatividad y la productividad esté bajo control”

Todo el mundo nos mira hoy. Mientras que las grandes tecnológicas alertan sobre las consecuencias de sus propias creaciones, Europa ha tomado la iniciativa y propuesto una respuesta concreta a los riesgos que empieza a general la IA”; ha señalado Brando Benifei, miembro del comité que ha trabajado el texto. “Queremos que el potencial positivo de esta herramienta para la creatividad y la productividad esté bajo control”.

Una vez culminen las negociaciones con los Estados miembros, que se prevé para finales de este año, la normativa no empezaría a aplicarse hasta 2026. Aunque se espera que estos plazos puedan reducirse. Con todo, Europa se convertiría en la primera región del mundo en implantar una regulación para esta tecnología. 

Google aplaza el lanzamiento de Bard en Europa

Según ha informado el medio Político, Google se ha visto obligado a posponer el lanzamiento de Bard, su chatbot de inteligencia artificial, en la Unión Europea. En motivo es la Comisión de Protección de Datos de Irlanda ha señalado que la compañía no había proporcionado información ni garantías suficientes acerca de cómo su herramienta de IA generativa protege la privacidad de los usuarios europeos. En este sentido, considera que no se atiene a los estipulado Reglamento General de Protección de Datos (RGPD). 

Cabe destacar que este organismo es el responsable de regular la operación de la tecnológica dentro del espacio comunitario. La compañía, por su parte, ya ha señalado que se encuentra en diálogo con las autoridades para entregar la documentación e información necesaria y aclarar todas las dudas sobre las políticas de privacidad del chatbot.