La Unión Europea se ha convertido en la primera región del mundo en regular de manera general los diferentes usos de la inteligencia artificial, con el acuerdo en ese sentido al que llegaron el pasado viernes 8 de diciembre los estados miembro y el Parlamento Europeo.
El nuevo reglamento, que deberá ser ratificado por ambas partes en los próximos meses y entrará en vigor, previsiblemente, en 2026, define las obligaciones y normas que deberán regir el desarrollo de esta tecnología y se ocupa especialmente de aspectos como la vigilancia biométrica y las características de los modelos fundacionales.
“Europa se ha posicionado a sí misma como pionera, entendiendo la importancia de su papel global como marcador de estándares. Creo que sí, que este es un día histórico”, señalaba en conferencia de prensa el Comisario de Mercado Interior Thierry Breton, uno de los grandes impulsores de esta normativa.
La norma trata de establecer un equilibrio entre las limitaciones a los riesgos y la apertura al desarrollo tecnológico
Un día histórico, como señalaba el comisario, y también largo, pues las negociaciones se prolongaron durante 36 horas en las que las partes trataron de encontrar el equilibrio entre la limitación de los riesgos que acarrea la tecnología y la garantía de las posibilidades de desarrollo para una herramienta que se adivina fundamental para la economía y las empresas en los años venideros. Las partes se declararon finalmente satisfechas por el balance logrado entre ambos objetivos.
Los temas que suscitaron más controversia y sobre los que el acuerdo resultó más difícil fueron los modelos de inteligencia artificial de propósito general (modelos fundacionales o IA generativa), en los que se basan herramientas como ChatGPT y los sistemas de vigilancia biométrica.
En cuanto al primero, los modelos tendrán que cumplir criterios de transparencia antes de salir al mercado, como especificar que sus creaciones son producto de la inteligencia artificial, proveer de información detallada acerca del contenido usado para su adiestramiento y cumplir con las leyes comunitarias sobre derechos de autor.
Sistemas de vigilancia prohibidos
Con respecto a los sistemas de vigilancia biométrica, quedarán prohibidos los sistemas de categorización por creencias políticas, religiosas, filosóficas, orientación sexual o raza; los sistemas utilizados para generar o expandir bases de datos faciales mediante la captación de información de manera indiscriminada a través de internet o de grabaciones audiovisuales; el reconocimiento de emociones en el lugar de trabajo y centros de enseñanza; los sistemas que puntúan a las personas en función de su comportamiento social o características personales y los que explotan mediante IA las vulnerabilidades de las personas.
Noticias Relacionadas
La expansión de la IA plantea un escenario de redes sociales sintéticas
{"id":25382,"titular":"La expansión de la IA plantea un escenario de redes sociales sintéticas","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/redes-sociales-sinteticas.jpg","path":"/actualidad/expansion-inteligencia-artificial-redes-sociales-sinteticas"}Las tecnológicas se comprometen a proteger los procesos electorales de los riesgos de la IA
{"id":25277,"titular":"Las tecnológicas se comprometen a proteger los procesos electorales de los riesgos de la IA","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/tecnologicas-elecciones.jpg","path":"/actualidad/microsoft-medidas-proteccion-procesos-electorales-inteligencia-artificial"}La vigilancia biométrica será prerrogativa de las fuerzas de orden público, que la podrán usar en tiempo real en espacios públicos para la búsqueda de víctimas de determinados delitos, la prevención de amenazas “genuinas y presentes” o “genuinas y previsibles”, y la localización e identificación de sospechoso de determinados crímenes.
Se espera que la legislación entre en vigor a principios del próximo año, una vez que ambas partes la ratifiquen formalmente, y debería aplicarse dos años después. Y llega mientras empresas como OpenAI, en la que Microsoft es inversor, siguen descubriendo nuevos usos para su tecnología, lo que genera aplausos y preocupaciones a parte iguales. El propietario de Google, Alphabet, lanzaba la semana pasada un nuevo modelo de inteligencia artificial llamado Gemini, para rivalizar precisamente con OpenAI.
La ley de la UE podría convertirse en el modelo para otros gobiernos y una alternativa al enfoque laxo de Estados Unidos y las reglas provisionales de China.