Destacadas figuras del sector tecnológico piden pausar temporalmente el avance sin frenos de la Inteligencia Artificial como ChatGPT

  • En una carta abierta sugieren pausar el desarrollo de la tecnología durante 6 meses para analizar riesgos
  • Elon Musk (Twitter), Emad Mostaque (Stability AI) o Craig Peters (Getty Images) figuran entre los firmantes
Destacadas figuras del sector tecnológico piden pausar temporalmente el avance sin frenos de la Inteligencia Artificial como ChatGPT

El desarrollo de la inteligencia artificial está abriendo un amplísimo abanico de posibilidades llamadas a facilitar ciertos aspectos de la vida de las personas, como podría ser las consultas de información en internet, la generación de imágenes o la redacción de textos y correos electrónicos. Sin embrago, esta tecnología también plantea profundos desafíos económicos, sociales y éticos que han de ser analizados con detenimiento y que puede verse agravados por la desenfrenada carrera corporativa por liderar este territorio de innovación. 

La carta ha sido redactada por la organización Future of Life Institute

Así lo han expuesto más de 1.000 expertos en IA, emprendedores tecnológicos y científicos en una carta abierta que solicita al conjunto de la industria una pausa en el desarrollo y pruebas de herramientas de IA más potentes que el modelo de lenguaje GPT-4 de OpenAI con la intención de estudiar adecuadamente los riesgos que puedan plantear. El texto ha sido escritio por Future of Life Institute, una organización sin ánimo de lucro fundada en 2014 y cuya misión es orientar el progreso tecnológico hacia el beneficio común y alejarlo de posibles riesgos a gran escala para la humanidad. 

La misiva expone que la inteligencia artificial avanzada no se está planificando y administrando con el cuidado y los recursos correspondientes, que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas y que ni siquiera sus creadores pueden entender. predecir o controlarlas de forma fiable.

Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿deberíamos automatizar todos los trabajos?”, cuestiona el texto.  “¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.

Desde Future for Life Institute consideran esas decisiones no deben delegarse en líderes tecnológicos no elegidos y que los sistemas potentes de inteligencia artificial solo han de desarrollarse una vez haya seguridad de que sus efectos serán positivos y sus riesgos serán manejables. “Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”, aseguran. Así, aluden a declaraciones recientes de OpenAI respecto a la IA general en las que señalaban que podría ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros. 

Noticias Relacionadas

Adobe también apuesta por la inteligencia artificial generativa con Firefly

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, señala el documento firmado, entre otros, por Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, Co-Fundador de Apple; o Craig Peters, CEO de Getty Images.Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.

A este respecto, la organización defiende que esta pausa de seis meses debe aprovecharse para el desarrollo e implementación de un conjunto de protocolos de seguridad compartidos para el diseño avanzado de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Dichos protocolos han de garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. “Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”.

A este respecto defienden que la investigación y creación de inteligencia artificial deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean “más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”. Para ello consideran que los desarrolladores deben trabajar con los legisladores para dar lugar a sistemas sólidos de gobierno de la IA.

Los protocolos de seguridad deben incluir mecanismos de identificación y ecosistema de auditoría y certificación

Estos deberían incluir, entre otras cosas, la supervisión y seguimiento de los sistemas de alta capacidad y grandes conjuntos computacionales; mecanismos para distinguir creaciones reales de sintéticas y rastrear los modelos; un ecosistema de auditoría y certificación; responsabilidades sobre daños causados por la IA; o financiación pública para la investigación en seguridad.

"La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas, ahora podemos disfrutar de un "verano de IA" en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse", concluye la carta. “La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados”.

La carta abierta redactada por Future for Life Institute ha reunido ya 1.377 firmas. No obstante, según señalan en la web, el sistema de firmas ha sido pausado “por alta demanda”. Los responsables señalan que continúan recogiendo firmas pero se ha detenido su aparición en la carta para que los procesos de investigación y verificación puedan gestionarlas. 

Emad Mostaque, CEO de Stability AI; Evan Sharp, Co-Founder de Pinterest; y decenas de profesores de instituciones como la Universidad de Harvard, la Universidad de Montreal, la Universidad de Hong Kong o la Universidad de Nantes, también figuran entre los firmantes. 

Más info.: Carta abierta