Asegurando los Laboratorios: La Seguridad para la AGI

La carrera hacia la Inteligencia General Artificial (AGI) no solo es un desafío tecnológico, sino también un reto monumental en términos de seguridad nacional. Mientras los principales laboratorios de IA de EE.UU. impulsan el desarrollo de AGI, existe una desconexión alarmante entre el avance tecnológico y las medidas de seguridad implementadas. Estos laboratorios, que están creando lo que podría ser la herramienta más poderosa jamás inventada por la humanidad, están fallando en garantizar la seguridad frente a la amenaza de actores estatales, particularmente China. La seguridad de los secretos de la AGI y sus modelos será crucial para mantener la supremacía de EE.UU., y actualmente estamos muy lejos de tener las protecciones necesarias.


El Peligro de Subestimar de los Actores Estatales

En la actualidad, los actores estatales, como el Partido Comunista Chino (CCP), están entre las mayores amenazas para la seguridad tecnológica de Occidente. Estos gobiernos tienen capacidades de espionaje que superan incluso a los actores más sofisticados de la delincuencia cibernética. En un contexto donde la AGI se convertirá en un activo estratégico decisivo, subestimar la capacidad de estos actores para robar secretos clave sería un error catastrófico.

Ejemplos de Capacidades de Actores Estatales

  • Hackeo remoto sin interacción del usuario en dispositivos móviles con solo un número telefónico.
  • Acceso a programas nucleares protegidos por redes aisladas (air-gapped).
  • Compromiso de las cadenas de suministro de hardware a gran escala.
  • Modificación de código fuente en empresas tecnológicas como Google.

El FBI ha señalado que China lleva a cabo operaciones de hackeo más grandes que «todos los países principales combinados». Además, en 2022/23, un ciudadano chino fue arrestado por robar código de inteligencia artificial clave de Google, un indicativo de los esfuerzos en curso por parte de China para adelantarse en la carrera de la AGI.

Pero el peligro no se detiene aquí. A medida que se acelere la carrera hacia la AGI, cada agencia de inteligencia en el mundo hará de la IA su prioridad número uno, desplegando vastos recursos y tácticas avanzadas para robar secretos de los laboratorios estadounidenses.


Los Activos Clave a Proteger

Existen dos activos críticos que deben protegerse: los pesos de los modelos y los secretos algorítmicos. Ambos son componentes esenciales para el desarrollo de AGI y podrían marcar la diferencia entre el éxito o el fracaso en la carrera tecnológica y militar de las naciones.

Pesos de los Modelos

Un modelo de IA es básicamente un archivo de datos, una serie de números que, si es robado, podría reproducirse en cualquier lugar. El robo de los pesos de los modelos significaría que, en lugar de que EE.UU. mantenga su liderazgo en la AGI, los adversarios como China podrían utilizar estos archivos para igualar o superar los avances realizados.

El mayor temor es que un adversario, como China, robe los pesos de un modelo AGI avanzado en el momento justo antes de una explosión de inteligencia (intelligence explosion). Si esto ocurriera, la nación que lo lograra podría iniciar su propia explosión de inteligencia, igualando cualquier ventaja que EE.UU. tuviera en ese momento. Además, esto desencadenaría una carrera armamentista en la que ambos países tendrían que avanzar hacia la superinteligencia lo más rápido posible, eliminando cualquier margen de seguridad o precaución.

Secretos Algorítmicos

Los secretos algorítmicos son incluso más importantes en este momento que los propios pesos de los modelos. Estos secretos incluyen los avances técnicos que los laboratorios están desarrollando para superar obstáculos como la «pared de datos» (la limitación en la cantidad de datos disponibles para entrenar modelos cada vez más grandes). El próximo gran avance en IA, comparable a los algoritmos de autoaprendizaje de AlphaGo, probablemente esté en desarrollo en este momento. Si estos secretos algorítmicos fueran robados, China u otros adversarios podrían superarse a sí mismos, alcanzando a EE.UU. en la carrera hacia la AGI sin necesidad de construir gigantescos clusters de computación.


La Necesidad de una «Superseguridad»

Proteger los laboratorios de IA y los avances tecnológicos en AGI requerirá una transformación radical en las medidas de seguridad. Actualmente, la seguridad en estos laboratorios se asemeja más a la de una startup tecnológica que a la de un proyecto crítico de defensa nacional. Esto no es suficiente, especialmente frente a amenazas estatales bien financiadas y altamente organizadas.

¿Qué se Necesita para Garantizar la Seguridad?

Para alcanzar niveles de seguridad apropiados para proteger los pesos de los modelos y los secretos algorítmicos, los laboratorios de IA deberán implementar lo que podríamos llamar superseguridad. Esto incluirá:

  1. Infraestructura Air-gapped: Centros de datos completamente aislados de redes externas y con seguridad física comparable a las bases militares más seguras.
  2. Avances Técnicos en Seguridad Computacional: El uso de hardware especializado para encriptar datos y proteger la integridad de los modelos de IA.
  3. Sistemas SCIF (Sensitive Compartmented Information Facility): Solo personal autorizado debería tener acceso a instalaciones físicas con altos niveles de seguridad, incluyendo verificación biométrica, revisión de antecedentes intensiva y control riguroso de acceso.
  4. Controles Internos Estrictos: Limitar el acceso a los secretos algorítmicos a solo unas pocas docenas de personas clave, quienes estarían bajo una vigilancia constante para evitar cualquier riesgo de fuga de información.
  5. Colaboración con el Gobierno: Las empresas tecnológicas no pueden implementar estas medidas por sí solas. Se requerirá de la intervención gubernamental para proteger los secretos de la AGI como si se tratara de un arma nuclear.
  6. Cadenas de Suministro Seguras: Supervisar de cerca todos los componentes de hardware utilizados para entrenar y ejecutar modelos de IA, asegurando que no sean vulnerables a ataques a lo largo de la cadena de producción.

¿Estamos en el Camino Correcto?

Actualmente, los principales laboratorios de IA no están en el camino correcto. Aunque reconocen la importancia de la AGI para la seguridad nacional y global, las medidas de seguridad que implementan están peligrosamente atrasadas. En los próximos 12-24 meses, es probable que se desarrollen los principales avances que permitirán la AGI. Si esos avances se filtran o se roban, las consecuencias para EE.UU. serían catastróficas.

Históricamente, hemos visto lo que puede suceder cuando se subestiman las necesidades de seguridad. Durante el desarrollo de la bomba atómica, muchos científicos se resistieron inicialmente a imponer medidas de secreto. Si Fermi hubiera publicado sus resultados sobre el grafito en 1940, es posible que los nazis hubieran podido construir su propia bomba nuclear. Solo al imponer medidas de seguridad estrictas se evitó un desastre global.


Conclusión

La seguridad de los laboratorios de IA debe ser una prioridad nacional. Sin ella, todo el progreso tecnológico que EE.UU. ha logrado se perderá frente a actores estatales como China, que están dispuestos a hacer cualquier cosa para obtener los secretos de la AGI. La diferencia entre liderar o quedar rezagado en esta carrera tecnológica podría definir el futuro de la humanidad. Si no actuamos ahora para asegurar estos laboratorios, nos arriesgamos a perder la ventaja estratégica que hemos ganado, y con ello, el control sobre la inteligencia artificial más poderosa jamás creada.

El tiempo corre, y la seguridad debe estar a la altura de la tecnología que se está desarrollando.

Enlaces al desarrollo por capítulos del ensayo «Situational Awareness»

En «Situational Awareness», Aschenbrenner no sólo destaca el rápido avance de la IA, sino que también llama a una reflexión profunda sobre los riesgos y beneficios que nos esperan en la próxima década. Si estás interesado en conocer más detalles sobre cada uno de los capítulos, consulta los siguientes enlaces.

Leopold Aschenbrenner es el fundador de una firma de inversión centrada en la Inteligencia Artificial General (AGI), respaldada por importantes inversionistas como Patrick y John Collison, Nat Friedman y Daniel Gross. Antes, trabajó en el equipo de Superalignment de OpenAI, donde contribuyó al avance de la IA avanzada. Además, tiene experiencia en investigación económica, habiendo trabajado en el Global Priorities Institute de la Universidad de Oxford y en la Universidad de Columbia, donde se enfocó en el estudio del crecimiento económico.

Scroll al inicio