La Comisión Europea presentó ayer un nuevo paquete de normas y medidas y una propuesta de reglamento sobre la inteligencia artificial. Se trata del primer marco jurídico sobre esta tecnología y está enfocado a garantizar la seguridad y los derechos fundamentales de las personas y las empresas, al mismo tiempo que pretende convertir a Europa en el centro mundial de la inteligencia artificial apostando por la inversión y la innovación.
El principal objetivo del nuevo Reglamento sobre la IA será que los europeos puedan confiar en las posibilidades de esta tecnología y proporcionar unas normas, a la vez que unos estándares, para abordar los riesgos específicos que plantean los sistemas de IA. En este sentido, Las autoridades comunitarias han trazado una serie de líneas rojas para el que es uno de los principales avances científicos de la actualidad y un elemento esencial en la denominada economía del dato.
En la presentación de la propuesta del marco regulatorio, Margrethe Vestager, Vicepresidenta Ejecutiva Responsable de la cartera de Una Europa Adaptada a la Era Digital, ha destacado que la confianza es una obligación, no un adorno. “Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”.
El riesgo como base del planteamiento
En este sentido, las medidas propuestas, que se aplicarán de la misma manera en todos los Estados miembros, siguen un planteamiento basado en riesgo. De esta forma, se establecen cuatro niveles diferentes atendiendo, principalmente, a la severidad del daño y la probabilidad de que este ocurra, y en consecuencia, cuanto más riesgo más obligaciones deberán respetar los sistemas de IA.
Riesgo inadmisible
Se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto implica herramientas que manipulen el comportamiento humano para eludir la voluntad de los usuarios o sistemas que permitan la “puntuación social” por parte de los Gobiernos.
Alto riesgo
Este nivel abarca, entre otras, tecnologías de IA empleadas en infraestructuras críticas, como transportes, que pueden poner en peligro la vida y la salud de los ciudadanos; formación educativa o profesional que pueden determinar el acceso a la educación y la carrera profesional o componentes de seguridad de los productos, como pudiera ser la aplicación de IA en cirugía asistida por robots. El reglamento también tiene en cuenta otros sistemas en áreas como la aplicación de las leyes, la administración de justicia o la gestión de la migración, el asilo y el control de fronteras.
Así, de cara comercializarse, estos sistemas estarán sujetos a obligaciones estrictas, como contar con sistemas adecuados de evaluación y mitigación de riesgo o responder a una alta calidad de los conjuntos de datos que alimentan el sistema. Además deberán aportar un registro de la actividad para garantizar la trazabilidad de los resultados, aportar documentación detallada sobre el sistema y su finalidad, proporcionar información clara y adecuada al usuario y tener un alto nivel de solidez, seguridad y precisión, así como contemplar medidas apropiadas de supervisión humana para minimizar el riesgo.
Especialmente, se consideran de alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. No obstante, se contemplan excepciones para su uso, como por ejemplo, la búsqueda de un menor desaparecido o para prevenir una amenaza terrorista concreta e inminente. Además, su uso estará sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.
Riesgo limitado
En este nivel se incluyen sistemas como chatbots o robots conversacionales, que deberán cumplir unas medidas específicas de transparencia. A este respecto, se establece la obligación de informar a los usuarios de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.
Riesgo mínimo o nulo
La propuesta de la Comisión permite el uso gratuito de aplicaciones tales como videojuegos basados en inteligencia artificial o filtros de correo basura. Ya que la amplia mayoría de los sistemas de IA entran en esta categoría, el proyecto de Reglamento no interviene aquí debido a su limitado riesgo sobre los derechos o la seguridad de los individuos.
Noticias Relacionadas
Los conciertos con artistas digitales animados por Inteligencia Artificial llegarán a Twitch
{ "id":"3206", "titular":"Los conciertos con artistas digitales animados por Inteligencia Artificial llegarán a Twitch", "prefijo":"actualidad", "slug":"conciertos-artistas-digitales-inteligencia-artificial", "image":"/media/cache/intertext/authentic_artists.jpg", "path":"/actualidad/conciertos-artistas-digitales-inteligencia-artificial" }{ "id":"3273", "titular":"Down España desarrolla la primera app de contactos con inteligencia artificial que analiza el lenguaje y la escritura", "prefijo":"actualidad", "slug":"sindrome-down-inteligencia-artificial", "image":"/media/cache/intertext/sindrome-down-aplicacion.jpg", "path":"/actualidad/sindrome-down-inteligencia-artificial" }
Cumplimiento y sanciones
De cara a la vigilancia del cumplimiento de estas normas, la Comisión propone que sean las autoridades nacionales competentes quienes asuman la responsabilidad. No obstante, se llevará a cabo la creación de un Comité Europeo de Inteligencia Artificial para facilitar su aplicación e impulsar el desarrollo de normas en materia de IA. Además, se proponen códigos de conducta voluntarios para la IA que no entrañe un alto riesgo, así como espacios controlados de pruebas para facilitar la innovación responsable.
Por otro lado, la propuesta contempla también sanciones para las empresas que no se ciñan a las medidas. Así, las organizaciones que lo incumplan podrían llegar asumir hasta el 6% de su facturación anual global o 30 millones de euros en concepto de multa.
Desde la Secretaría de Estado de Digitalización e Inteligencia Artificial han valorado positivamente las medidas planteadas desde la Comisión. Consideran que la propuesta "recoge la posición española sobre inteligencia artificial” y que tanto “Europa como Españan avanzan conjuntamente hacia una IA confiable, segura e inclusiva, que permita mejorar la vida de las personas”.
Las críticas al reglamento
A pesar de los avances en materia regulatoria, la agrupación internacional European Digital Rights (EDRi) considera positivo que la Comisión reconozca que algunos usos de la IA son simplemente inaceptables y deben prohibirse. Sin embargo, critica que el proyecto de ley no prohíba en toda su extensión los usos inaceptables de la IA y, en particular, todas las formas de vigilancia biométrica masiva. “Esto deja una brecha preocupante para las tecnologías discriminatorias y de vigilancia utilizadas por gobiernos y empresas. La regulación permite un margen demasiado amplio para la autorregulación de las empresas que se benefician de la IA. Las personas, no las empresas, deben ser el centro de esta regulación”, ha comentado Sarah Chander, Senior Policy Lead on AI de la organización.
Asimismo, señalan que el proyecto deja muchas prácticas de vigilancia biométrica masiva sin cubrir, y da lugar a una serie de excepciones muy preocupantes que permitirían a las fuerzas del orden encontrar lagunas. “Esta es una oportunidad perdida por la Comisión de adoptar un enfoque verdaderamente integral contra todas las formas de vigilancia biométrica masiva”, han destacado desde EDRi.
Asimismo, apuntan que los requisitos de la propuesta se basan ingenuamente en los desarrolladores de IA para implementar soluciones técnicas a problemas sociales complejos, y que estos probablemente serán autoevaluados por las propias empresas. “La propuesta permite utilizar un mercado rentable de IA injusta para la vigilancia y la discriminación, y culpa a los desarrolladores de tecnología, en lugar de a las instituciones o empresas que utilizan los sistemas”, ha planteado la organización en un comunicado.
El fomento de la innovación
Junto al proyecto de Reglamento, la Comisión ha reforzado su compromiso con el fomento de la innovación en el desarrollo y uso de esta tecnología en todas las industrias y en todos los Estados miembros. Así, aseguran haber llevado a cabo una actualización exhaustiva del plan coordinado sobre la IA -publicado por primera vez en 2018-, que dará lugar a una aceleración de las inversiones en inteligencia artificial. El objetivo es estimular la ejecución de las estrategias nacionales de IA, eliminar la fragmentación y hacer frente a los retos mundiales.
A este respecto, empleará la financiación asignada con cargo a los programas Europa Digital y Horizonte Europa, así como al Mecanismo de Recuperación y Resiliencia, y a la Política de Cohesión. Las principales finalidades son:
- Propiciar el desarrollo y la implantación de la IA mediante intercambio de información estratégica y de datos, así como la inversión en capacidades informáticas críticas
- Fomentar la excelencia de la IA "del laboratorio al mercado” mediante la asociación público-privada, la movilización de capacidades de investigación y la puesta a disposición de onstalaciones de ensayo y experimentación para pymes
- Velar porque la tecnología sea una fuerza del bien social, a través del fomento de talento y formación
- Fomentar el liderazgo estratégico en sectores y tecnologías de gran impacto y centrándose en la producción sostenible
Thierry Breton, comisario de Mercado Interior, asegura que la inteligencia artificial tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también entraña varios riesgos. “Las propuestas presentadas tienen por objeto reforzar la posición de Europa como centro mundial de excelencia en materia de IA desde el laboratorio hasta el mercado, velar por que en Europa respete nuestros valores y normas y aprovechar el potencial de la IA para usos industriales”.