Reino Unido establece siete principios rectores de la IA para garantizar la competencia sana y la protección de los usuarios

  • La Autoridad de los Mercados y la Competencia ha sido la encargada de establecer los principios
  • Responsabilidad, transparencia, diversidad y flexibilidad son algunos de ellos
Una chica sostiene una tablet en la mano

La Autoridad de los Mercados y la Competencia (Competition and Markets Authority, CMA) de Reino Unido ha propuesto unos principios básicos sobre inteligencia artificial con el objetivo de garantizar, por un lado, la protección del consumidor y, por otro, la competencia sana en el terreno del desarrollo y uso responsable de los denominados modelos fundacionales, es decir, los grandes modelos de inteligencia artificial.

El organismo señala en un comunicado que los recientes desarrollos de estos modelos y su rápida adopción en distintas aplicaciones orientadas al usuario, como es el caso de ChatGPT y Office 365 Copilot, resaltan su potencial para transformar la forma en que se vive y trabaja, estimular la innovación y tener un impacto significativo en las personas, las empresas y la economía del Reino Unido.

Advierte de los riesgos asociados a la desinformación o al oligopolio

No obstante, también advierte de los riesgos asociados a una competencia limitada o evadir las normativas de protección de los consumidores.Las personas podrían estar expuestas a niveles significativos de información falsa y engañosa y a fraude impulsado por la IA”; explica la CMA. “En el largo plazo, un puñado de empresas podrían utilizar los modelos para ganar o afianzar posiciones de poder de mercado y no ofrecer los mejores productos y servicios y/o cobrar precios altos”.

La CMA explica también que los principios parten de la elaboración de un informe sobre los modelos fundacionales centrado, especialmente, en lo relacionado con la competencia y el consumidor, y no tanto en cuestiones como los derechos de propiedad intelectual, ciberseguridad o protección de datos. 

En este sentido, los siete principios rectores propuestos son: 

  • Responsabilidad: los desarrolladores e implementadores de modelos son responsables de los resultados proporcionados a los consumidores.
  • Acceso: acceso continuo la información clave utilizada en el entrenamiento, sin restricciones innecesarias.
  • Diversidad: ofrecer modelos de negocio diversos, tanto abiertos como cerrados.
  • Elección: brindar opciones suficientes para que las empresas puedan decidir cómo utilizar los modelos de inteligencia artificial
  • Flexibilidad: tener la flexibilidad o disponer de interoperabilidad para cambiar y/o utilizar múltiples modelos según las necesidades.
  • Trato justo: no se permitirán conductas anticompetitivas, como la autopreferencia o la vinculación o agrupación de productos y servicios.
  • Transparencia: los consumidores y las empresas recibirán información sobre los riesgos y limitaciones del contenido generado por los modelos para que puedan tomar decisiones informadas.

Existe un potencial real para que esta tecnología impulse la productividad y facilite millones de tareas cotidianas, pero no podemos dar por sentado un futuro positivo”, ha comentado Sarah Cardell, CEO de la CMA, en un comunicado. “Sigue existiendo un riesgo real de que el uso de la IA se desarrolle de una manera que socave la confianza de los consumidores o esté dominado por unos pocos actores que ejercen un poder de mercado que impida que todos los beneficios se sientan en toda la economía”.

Noticias Relacionadas

Dentsu Creative usa la IA para generar un cliente que valora la creatividad

El organismo ha asegurado que a lo largo de los próximos meses trabajará para continuar desarrollando los principios, ayudándose de la colaboración con una amplia gama agentes en todo Reino Unido y a nivel internacional. También ha adelantado que a principios de 2024 publicará una actualización sobre su posicionamiento respecto a la inteligencia artificial, incluida cómo se recibieron y adoptaron los principios. 

Reino Unido se suma con este movimiento al resto de economías que ya están tomando medidas para establecer unas normas del juego para la inteligencia artificial. La Unión Europea, a través de su propuesta de Ley de IA, se está centrando en los modelos, sus niveles de riesgo y en la exigencia de transparencia. Por su parte, las directrices de China exigen que las empresas de IA se registren ante el gobierno y prometan no ofrecer algoritmos anticompetitivos. Mientras que en Estados Unidos, siete grandes compañías tecnológicas se han comprometido con el gobierno a respetar una serie de normas y salvaguardas en el desarrollo de esta tecnología para evitar sesgos y abusos.