La Unión Europea se encuentra aún en el proceso de definición del marco regulatorio comunitario para las herramientas de inteligencia artificial, una norma pionera que aspira a convertirse en referente para reguladores en todo el mundo. Sin embargo, los agentes del sector que están volcando sus esfuerzos en el desarrollo de soluciones de código abierto reclaman un mayor apoyo por parte de las autoridades comunitarias.
Un grupo de empresas, entre las que se incluyen GitHub, Hugging Face, EleutherAI, Laion, Open Future o Creative Commons, buscan un enfoque alternativo para las propuestas regulatorias de código abierto. Su principal reclamación es la diferenciación del código abierto de los sistemas comerciales, para lo que proponen, entre otras cosas, definiciones más claras de los componentes de la inteligencia artificial o la aclaración de que los desarrolladores de código abierto, sean aficionados e investigadores, no se benefician comercialmente de la tecnología.
Señalan que la regulación de los modelos de código abierto como comerciales podría socavar la innovación
“La Ley puede regular los proyectos de código abierto como si fueran productos comerciales o sistemas de IA implementados. Esto sería incompatible con las prácticas de desarrollo de código abierto y contrario a las necesidades de los desarrolladores individuales y las organizaciones de investigación sin ánimo de lucro”, apunta Peter Cihon, Senior Policy Manager de Github, en una publicación en el blog corporativo de la empresa.
Señala, además, que la normativa corre el riesgo de enfriar el desarrollo de la inteligencia artificial de código abierto, lo que podría socavar sus objetivos de promover la innovación responsable en línea con los valores europeos. Por ello, han recogido posibles soluciones en un documento, titulado "Apoyo al código abierto y la ciencia abierta en la Ley de IA", que aspira a servir como un recurso para los legisladores que elaboran la regulación.
Cihon expone que, con frecuencia, el código abierto se han subestimado o incluso malinterpretado. “El código abierto ha sido la base tanto del desarrollo como de la política de inteligencia artificial. Proporciona un bien público global que todos pueden usar, estudiar, modificar y distribuir”, asegura en el texto. “Las mejores prácticas promovidas por la comunidad de código abierto han dado forma tanto a los requisitos de transparencia como a los compromisos voluntarios en todo el mundo. Para salvaguardar la innovación, la colaboración y la competencia responsables, la política de IA debe tener en cuenta el código abierto”.
Entre otras cosas, en el documento se recoge que la consideración de algunos modelos como alto riesgo, sin tener en cuenta el tamaño del desarrollador, pueden ser perjudiciales para la generación de soluciones, o que la obligatoriedad de involucrar a auditores externos es costoso y no es necesario para mitigar los riesgos asociados con los modelos básicos. También apuntan que compartir herramientas de IA en bibliotecas de código abierto no debería considerarse actividad comercial, y por tanto, no deberían estar sujetas a medidas regulatorias; y que la prohibición de realizar pruebas de modelos en circunstancias del mundo real impedirá la correcta investigación y desarrollo.
Noticias Relacionadas
Salesforce y Matthew McConaughey preguntan quién es el sheriff de la inteligencia artificial
{"id":24832,"titular":"Salesforce y Matthew McConaughey preguntan quién es el sheriff de la inteligencia artificial","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/salesforce-mcconaughey.jpg","path":"/actualidad/salesforce-matthew-mcconaughey-preguntan-quien-es-sheriff-inteligencia-artificial"}La Ley de IA de la Unión Europea ha sido criticada desde que iniciara su andadura en 2021 por ser demasiado amplia en la definición de tecnologías de inteligencia artificial y poner demasiado el foco en su aplicación. A este respecto, los defensores del código abierto solicitan una mirada más laxa sobre sus modelos y apuntan que el desarrollo de IA funciona mejor cuando las personas no necesitan pagar para acceder a los modelos y hay más transparencia en la forma en que se entrena un modelo.
Stability AI, por ejemplo, lanzó una versión de código abierto de Stable Diffusion, y Meta lanzó su modelo de lenguaje Llama 2 como código abierto, aunque no comparte de dónde obtuvo los datos de entrenamiento y también ha impuesto restricciones respecto a quién puede usar el modelo de forma gratuita. En cambio, otros agentes han abandonado esta vía, como OpenAI, que decidió dejar de compartir gran parte de su investigación sobre GPT por temor a la competencia.