Como las pandemias o una guerra nuclear: cientos de expertos alertan del “riesgo de extinción” que puede provocar la IA

  • Cientos de expertos y directivos han firmado una carta abierta publicada por la organización Center for AI Safety
  • Los máximos responsables de Google DeepMind, OpenAI o Anthropic, figuran entre los firmantes
Como las pandemias o una guerra nuclear: cientos de expertos alertan del “riesgo de extinción” que puede provocar la IA

Mitigar el riesgo de extinción para la humanidad que podría generar la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias o la guerra nuclear.

Esa es la conclusión, y también llamamiento, que comparten más de 35o ingenieros, investigadores, directivos y expertos en inteligencia artificial que han firmado una carta abierta publicada por Center for AI Safety, una organización sin ánimo de lucro ubicada en San Francisco cuya misión se centra en la reducción de los riesgos de la inteligencia artificial. 

Geoffrey Hinton, considerado “padrino” de la IA, ha firmado la carta abierta

La misiva recoge las firmas de algunas personalidades destacadas del ecosistema empresarial internacional y, especialmente, del competitivo terreno de la inteligencia artificial. Así, en la lista de firmantes puede verse, entre otros, a Demis Hassabis, CEO de Google DeepMind; Sam Altman, CEO de OpenAI; Dario Amodei, CEO de Anthropic; o Kevin Scott, CTO de Microsoft. También se encuentra Geoffrey Hinton, considerado “padrino” de la inteligencia artificial y quien ya advirtió de los peligros de esta tecnología tras su salida de Google. 

Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA. Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada”, señala la escueta pero contundente carta, que asegura tener por objetivo “superar este obstáculo y abrir la discusión”, así como "crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”. 

De esta forma, el llamamiento recoge las preocupaciones de la industria y se alinea con la opiniones expresadas por los expertos en anteriores ocasiones. Hace apenas una semana, en la parada realizada en Madrid como parte de un tour internacional, Sam Altman reclamó una mayor regulación de la inteligencia artificial y, concretamente, que esta se centrara en los desarrolladores de grandes modelos, como precisamente sería OpenAI, porque ahí es donde "la sociedad tiene interés en asegurarse de que los modelos no causen un gran daño”.

Noticias Relacionadas

/imagine prompt: Cómo usar la IA para obtener mejores respuestas creativas

Anteriormente, Geoffrey Hinton, considerado uno de los profesionales pioneros de la inteligencia artificial moderna y galardonado en 2018 con el Premio Turing por sus contribuciones al campo del deep learning, alertó de los peligros de esta tecnología en una entrevista. “Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, comentó a The New York Times.Mira cómo era hace cinco años y cómo es ahora. Coge esa diferencia y proyéctala hacia adelante. Eso asusta". 

Por su parte, Bill Gates, Co-Fundador de Microsoft, defendió hace unas semanas que los gobiernos deben trabajar con el sector privado para encontrar formas de limitar los riesgos. Su preocupación se centra, no obstante, en las denominadas inteligencias artificiales fuertes.Probablemente podrán establecer sus propios objetivos. ¿Cuáles serán esos objetivos? ¿Qué sucede si entran en conflicto con los intereses de la humanidad? ¿Deberíamos tratar de evitar que alguna vez se desarrolle una IA fuerte? Estas preguntas se volverán más apremiantes con el tiempo”, comentó. 

La carta publicada por Center for AI Safety cogería el testigo de la firmada en marzo por más de 1.000 expertos en IA, emprendedores tecnológicos y científicos para solicitar al conjunto de la industria una pausa en el desarrollo y pruebas de herramientas de IA más potentes que el modelo de lenguaje GPT-4 de OpenAI. El objetivo, señalaron, es estudiar adecuadamente los riesgos que puedan plantear.

El G7 ha creado un plan de trabajo para establecer estándares de regulación para la IA

“Proceso de Hiroshima ” del G7

Las reclamaciones de los expertos han llegado a los oídos de gobiernos y reguladores. Y es que el G7, reunido la tercera semana de mayo en Japón, ha impulsado el denominado “Proceso de Hiroshima”, un marco para desarrollar conversaciones relacionadas con el establecimiento de estándares técnicos para la gobernanza y regulación de la inteligencia artificial.

De momento, el grupo -integrado por Estados Unidos, Japón, Alemania, Gran Bretaña, Francia, Italia, Canadá y la Unión Europea- no ha establecido medidas concretas, pero ha señalado que la definición de estánderes ha de llevarse a cabo atendiendo a valores democráticos conjuntos de transparencia, seguridad y protección contra los abusos. Los ejes del trabajo conjunto serán: el reconocimiento de la importancia de la inteligencia artificial, el equilibrio de sus riesgos y sus beneficios; y la exigencia de medidas de seguridad.