La carrera hacia la AGI (Inteligencia General Artificial) está tomando forma rápidamente, y con ella, una certeza emerge: el estado de seguridad nacional de los Estados Unidos inevitablemente se involucrará. A medida que el gobierno despierte a las implicaciones de la AGI, surgirán grandes cambios. Para los años 2027 o 2028, tendremos algún tipo de proyecto gubernamental dedicado a la AGI. Ningún startup puede manejar lo que viene con la superinteligencia. En algún lugar, en una SCIF (instalación de información sensible compartimentada), comenzará la verdadera fase final.
En este post exploraremos:
- El camino hacia el Proyecto
- Por qué es la única vía
- La superinteligencia será el proyecto más importante de la defensa nacional de los Estados Unidos
- Una cadena de mando responsable para la superinteligencia
- Usos civiles de la superinteligencia
- Seguridad
- Seguridad internacional
- Por qué el Proyecto es inevitable (y si será beneficioso o no)
- El final del juego
El camino hacia el Proyecto
El gobierno de los Estados Unidos es conocido por su lentitud, pero cuando la seguridad nacional está en juego, puede actuar con una velocidad y decisión impresionantes. Un claro ejemplo fue la respuesta a la pandemia de COVID-19. Aunque inicialmente no se tomaba en serio la amenaza, en cuestión de semanas el país entero se paralizó y se asignaron trillones de dólares. Este mismo tipo de reacción llegará cuando la posibilidad de la AGI se haga más evidente.
En 2023, ya vimos cómo la AGI pasó de ser un tema marginal a ocupar el centro de atención en audiencias del Senado y reuniones de líderes mundiales. En los próximos años, a medida que las capacidades de los modelos de IA continúen multiplicándose, se volverá cada vez más claro: estamos al borde de la superinteligencia.
Para el 2027/2028, veremos IA’s que superarán ampliamente a los humanos en resolución de problemas, sustituyendo trabajos cognitivos en masa, y generando ingresos billonarios. La presión será tremenda, y al igual que sucedió con la energía nuclear, los Estados Unidos comenzarán a tratar el tema como una prioridad nacional.
Por qué el Proyecto es la única vía
En este punto, no hay otra opción. Los startups han jugado un papel crucial al llevar la IA desde la academia al mundo comercial, pero no están preparados para manejar la superinteligencia. La creación de AGI requiere una estructura que ningún startup puede ofrecer: recursos masivos, seguridad impenetrable y un liderazgo responsable en manos de gobiernos democráticos.
La AGI no es simplemente una tecnología más. Será el proyecto de defensa más importante de Estados Unidos, y exigirá una participación masiva del gobierno para:
- Defendernos de las amenazas de espionaje.
- Asegurar que la cadena de mando sea responsable.
- Manejar los desafíos de seguridad de la superinteligencia.
- Ganar la carrera contra los regímenes autoritarios como China.
La Superinteligencia: el proyecto de defensa más importante de EE. UU.
La superinteligencia tendrá un impacto comparable al de las armas nucleares, pero más amplio. No solo afectará la tecnología militar, sino que redefinirá el poder global. Estados Unidos tendrá que transformar sus fuerzas armadas para adaptarse a un mundo donde la AGI liderará el desarrollo tecnológico y la seguridad.
En este contexto, será imprescindible desarrollar superinteligencia para aplicaciones defensivas, como contramedidas contra amenazas cibernéticas, armas biológicas avanzadas y drones autónomos. Esta transición no será gradual, sino una carrera a contrarreloj para evitar ser superados por potencias autoritarias.
Una cadena de mando responsable para la Superinteligencia
Permitir que una empresa privada controle la superinteligencia sería un error catastrófico. Como sociedad, hemos decidido que las armas más poderosas, como las armas nucleares, deben estar bajo el control de gobiernos democráticos, y lo mismo ocurrirá con la AGI.
Los CEO de startups no pueden tener un poder semejante, ya que las decisiones sobre superinteligencia afectarán a todo el planeta. Un mal paso, y podría haber consecuencias globales devastadoras. Solo un gobierno puede establecer los controles y balances necesarios para manejar esta tecnología de forma segura.
Los usos civiles de la Superinteligencia
Si bien el enfoque inicial de la AGI será militar, sus aplicaciones civiles serán igualmente transformadoras. Al igual que con la energía nuclear, que comenzó como un proyecto militar y luego floreció en aplicaciones civiles como la energía nuclear, lo mismo sucederá con la AGI.
El proyecto gubernamental servirá para estabilizar los primeros y más peligrosos años de la superinteligencia. Pero una vez que se estabilice, veremos una explosión de innovaciones civiles, como sistemas autónomos de transporte, diagnósticos médicos avanzados y soluciones a problemas globales como el cambio climático.
Seguridad: Una necesidad urgente
El espionaje será una de las principales preocupaciones. Con la seguridad actual de los laboratorios de IA en niveles alarmantes, Estados Unidos corre el riesgo de que China y otros adversarios simplemente roben los avances críticos en algoritmos y pesos de modelos de superinteligencia.
Para proteger estos activos, se necesitará una cooperación estrecha entre el gobierno y los laboratorios de IA, creando restricciones rigurosas que incluyan la vetación estricta de personal, el monitoreo constante y la protección física de los centros de datos. Sin estas medidas, no habrá forma de mantener una ventaja en la carrera hacia la AGI.
Estabilizando la situación internacional
El surgimiento de la superinteligencia traerá consigo una de las situaciones internacionales más volátiles de la historia. Los gobiernos tendrán que lidiar con la proliferación de superinteligencia y los intentos de potencias autoritarias de dominar el campo de batalla.
En esta fase inicial, Estados Unidos necesitará desplegar su superinteligencia para contrarrestar ataques cibernéticos, proteger su infraestructura crítica y asegurar que no haya fugas de inteligencia hacia potencias rivales. Además, será clave desarrollar un régimen de no proliferación, como ocurrió con las armas nucleares, para evitar que la superinteligencia caiga en manos de actores peligrosos como Corea del Norte o grupos terroristas.
El Proyecto es inevitable; si es bueno, aún no se sabe
El desarrollo de la AGI bajo el control del gobierno de los Estados Unidos es inevitable. La verdadera pregunta no es si habrá un Proyecto, sino cuándo y cómo se llevará a cabo. Si bien sería preferible que el gobierno interviniera antes de que estemos en medio de una explosión de inteligencia, es probable que el proceso sea caótico y tarde en llegar. El momento en que se involucre el gobierno será clave para el resultado.
Al mismo tiempo, el éxito del Proyecto dependerá de si Estados Unidos puede crear una coalición de democracias. Al unir fuerzas con aliados como el Reino Unido, Japón y otros, se podrá crear un esfuerzo conjunto que no solo acelere el desarrollo de la AGI, sino que también controle su despliegue militar y civil de manera ética.
El final del juego
Para 2027/2028, ya estará claro que la explosión de inteligencia está en marcha. Para 2030, habremos alcanzado la superinteligencia. Y en ese momento, la estabilidad del orden mundial estará en juego. Los líderes de este Proyecto tendrán la tarea monumental de asegurar el futuro de la humanidad.
El desafío será inmenso. Pero los que sean llamados a participar en esta misión no tendrán elección: su deber será servir al mundo libre y a la humanidad. El Proyecto será el reto más importante de nuestra era, y cómo lo manejemos determinará el destino de la civilización.
Nos vemos en el desierto.
Enlaces al desarrollo por capítulos del ensayo «Situational Awareness»
En «Situational Awareness», Aschenbrenner no sólo destaca el rápido avance de la IA, sino que también llama a una reflexión profunda sobre los riesgos y beneficios que nos esperan en la próxima década. Si estás interesado en conocer más detalles sobre cada uno de los capítulos, consulta los siguientes enlaces.
- I. De GPT-4 a AGI: Contando los OOMs: El salto cualitativo hacia la AGI.
- II. De AGI a Superinteligencia: La Explosión de Inteligencia: La aceleración exponencial.
- III. Los desafíos
a. Rumbo al cluster de un billón de dólares: La movilización industrial.
b. Seguridad en los laboratorios de AGI: El riesgo de ciberseguridad.
c. Superalineamiento: Controlar a las máquinas más inteligentes.
d. La supervivencia del mundo libre: La competencia geopolítica. - IV. El Proyecto: La intervención del Estado.
- V. Reflexiones finales: ¿Qué pasaría si Leopold Aschenbrenner tiene razón?
Leopold Aschenbrenner es el fundador de una firma de inversión centrada en la Inteligencia Artificial General (AGI), respaldada por importantes inversionistas como Patrick y John Collison, Nat Friedman y Daniel Gross. Antes, trabajó en el equipo de Superalignment de OpenAI, donde contribuyó al avance de la IA avanzada. Además, tiene experiencia en investigación económica, habiendo trabajado en el Global Priorities Institute de la Universidad de Oxford y en la Universidad de Columbia, donde se enfocó en el estudio del crecimiento económico.