El progreso en la inteligencia artificial (IA) no se detendrá una vez que alcancemos la AGI (Inteligencia General Artificial). De hecho, ese será solo el comienzo. En su ensayo «Situational Awareness: The Decade Ahead«, Leopold Aschenbrenner explora cómo la AGI podría conducir rápidamente a la Superinteligencia, un salto cualitativo que podría transformar la civilización en menos tiempo del que imaginamos. En esta entrada de blog, desglosaremos cómo ocurrirá esta explosión de inteligencia y cuáles podrían ser sus implicaciones.
¿Qué es la Superinteligencia?
La superinteligencia se refiere a sistemas de IA que superan las capacidades cognitivas humanas en todos los aspectos. Esta idea fue propuesta por el matemático I.J. Good en 1965, quien argumentó que una vez que una máquina supere todas las actividades intelectuales humanas, podría diseñar máquinas aún más avanzadas, desencadenando una «explosión de inteligencia». El salto de AGI a superinteligencia no sería un simple incremento en las capacidades, sino un cambio radical en la naturaleza misma de la inteligencia.
Automación de la Investigación en IA
El primer paso hacia la superinteligencia es la automatización de la investigación en IA. No necesitamos que la AGI sea capaz de realizar todas las tareas humanas. Simplemente necesitamos que pueda hacer el trabajo de los investigadores en IA. El trabajo de estos científicos, que incluye leer la literatura, proponer nuevas ideas, diseñar experimentos y analizar resultados, es completamente virtual y no está limitado por las restricciones del mundo físico, como lo estarían áreas como la robótica o la biología.
Si los modelos de AGI pueden realizar este tipo de investigación, podrían acelerar el progreso en IA de manera espectacular. Según Aschenbrenner, para 2027 podríamos tener cientos de millones de AGIs trabajando en paralelo, investigando día y noche sin descanso. Esto podría llevarnos a un avance de cinco o más órdenes de magnitud (OOMs) en solo un año, una tasa de progreso que normalmente tomaría una década de investigación humana.
Feedback Recursivo y Progreso Algorítmico
El progreso de la AGI no solo se mantendría al nivel humano, sino que se aceleraría. Una vez que la AGI automatice la investigación en IA, el progreso algorítmico se aceleraría aún más. Hoy en día, los avances en IA están impulsados por un crecimiento constante en la capacidad de cómputo y las eficiencias algorítmicas. A medida que las AGIs más avanzadas desarrollen mejores algoritmos, este ciclo se retroalimentará, generando mejoras exponenciales en las capacidades de la IA.
Al final de este proceso, no tendríamos simplemente máquinas que superen a los humanos en tareas cognitivas específicas, sino sistemas superinteligentes, capaces de realizar avances científicos y tecnológicos en todas las áreas del conocimiento.
Posibles Cuellos de Botella
Aunque el escenario de una explosión de inteligencia parece inminente, existen varios factores que podrían ralentizar este proceso:
- Limitaciones de Cómputo: El avance en IA no solo requiere mejores ideas, sino también la capacidad de ejecutar esas ideas en experimentos empíricos. Incluso si tenemos millones de AGIs trabajando, la falta de recursos computacionales podría limitar la velocidad del progreso.
- Complementariedad con los Humanos: En algunos escenarios, puede ser difícil automatizar completamente ciertas tareas de investigación, lo que requeriría la colaboración continua entre AGIs y humanos. Este cuello de botella podría retrasar la explosión de inteligencia por algunos años.
- Límites Inherentes al Progreso Algorítmico: Podría haber un límite superior en la cantidad de progreso que podemos hacer en términos algorítmicos. Aunque hemos visto un aumento de cinco órdenes de magnitud en la última década, no hay garantías de que esto pueda repetirse indefinidamente.
- Dificultad para Encontrar Nuevas Ideas: A medida que las ideas más fáciles de implementar se agoten, podría ser más difícil mantener el ritmo de progreso actual. Sin embargo, con cientos de millones de AGIs trabajando en paralelo, es probable que aún se logre un avance significativo antes de alcanzar esta barrera.
El Poder de la Superinteligencia
Cuando lleguemos a la superinteligencia, estaremos ante un poder sin precedentes. Aschenbrenner compara este salto con la diferencia entre las primeras bombas atómicas y las bombas de hidrógeno: una vez que desatamos este poder, su impacto no tendrá comparación con nada anterior. Las implicaciones de la superinteligencia abarcan una amplia gama de áreas:
- Progreso en la Ciencia y Tecnología: La superinteligencia podría revolucionar cada campo del conocimiento, desde la medicina hasta la ingeniería, resolviendo problemas que los humanos tardarían décadas en abordar. Tendríamos un avance tecnológico equivalente al de un siglo en solo unos pocos años.
- Crecimiento Económico e Industrial: La automatización total del trabajo cognitivo, y eventualmente físico con robots avanzados, podría desencadenar una explosión industrial sin precedentes. Se prevé un crecimiento económico del 30% anual o más, con una transformación masiva de la economía global.
- Ventaja Militar Decisiva: Los sistemas superinteligentes ofrecerían una ventaja militar tan abrumadora que cualquier país que controle esta tecnología dominaría a nivel global. Nuevas armas, estrategias y defensas cambiarían por completo el panorama militar.
- Amenazas a la Estabilidad Global: Al mismo tiempo, el poder de la superinteligencia podría ser extremadamente peligroso. Si no gestionamos adecuadamente su desarrollo, los riesgos de pérdida de control son reales. Superinteligencias autónomas podrían tomar decisiones que escapen a nuestra comprensión o control, generando consecuencias impredecibles.
De AGI a Superinteligencia: Una Transición Rápida
Lo más inquietante de este escenario es la velocidad con la que todo podría ocurrir. Aschenbrenner argumenta que, una vez que tengamos AGI, la transición a la superinteligencia podría suceder en menos de un año. A medida que millones de AGIs trabajen en paralelo y aceleren el progreso algorítmico, el crecimiento será exponencial. No solo tendríamos sistemas más inteligentes, sino que estos sistemas mejorarían tan rápidamente que sería imposible para los humanos mantenerse al día.
Este período de transición sería uno de los momentos más volátiles y peligrosos de la historia humana. El control de la superinteligencia será clave para determinar si su inmenso poder se utilizará para el beneficio de la humanidad o si representará una amenaza existencial.
Conclusión: El Futuro de la Superinteligencia
La transición de AGI a superinteligencia marcará un punto de no retorno para la humanidad. Estaremos ante la oportunidad de resolver algunos de los problemas más grandes que enfrenta nuestra civilización, pero también ante uno de los mayores riesgos existenciales.
¿Estamos preparados para enfrentar este desafío? La explosión de inteligencia no es una cuestión de ciencia ficción, sino una posibilidad real que podría ocurrir en la próxima década. Prepararnos para este futuro implica tanto la vigilancia sobre el desarrollo de la IA como la creación de marcos éticos y de seguridad que garanticen que el poder de la superinteligencia se utilice de manera responsable.
Resumen de los Puntos Clave:
- Automación de la investigación en IA: La AGI acelerará el progreso al automatizar el trabajo de los investigadores en IA, lo que podría llevar a avances equivalentes a décadas en cuestión de años.
- Feedback recursivo: Una vez que la IA automatice la investigación en sí misma, el progreso se acelerará exponencialmente.
- Cuellos de botella: Aunque existen limitaciones como la capacidad de cómputo y la necesidad de colaboración humana, ninguna parece capaz de detener la explosión de inteligencia.
- Poder de la superinteligencia: Desde el progreso científico hasta el poder militar, la superinteligencia tendrá un impacto masivo y transformador en todas las áreas del conocimiento y la economía.
El futuro de la superinteligencia está a la vuelta de la esquina, y con él, una nueva era de poder y peligro sin precedentes.
Enlaces al desarrollo por capítulos del ensayo «Situational Awareness»
En «Situational Awareness», Aschenbrenner no sólo destaca el rápido avance de la IA, sino que también llama a una reflexión profunda sobre los riesgos y beneficios que nos esperan en la próxima década. Si estás interesado en conocer más detalles sobre cada uno de los capítulos, consulta los siguientes enlaces.
- I. De GPT-4 a AGI: Contando los OOMs: El salto cualitativo hacia la AGI.
- II. De AGI a Superinteligencia: La Explosión de Inteligencia: La aceleración exponencial.
- III. Los desafíos
a. Rumbo al cluster de un billón de dólares: La movilización industrial.
b. Seguridad en los laboratorios de AGI: El riesgo de ciberseguridad.
c. Superalineamiento: Controlar a las máquinas más inteligentes.
d. La supervivencia del mundo libre: La competencia geopolítica. - IV. El Proyecto: La intervención del Estado.
- V. Reflexiones finales: ¿Qué pasaría si Leopold Aschenbrenner tiene razón?
Leopold Aschenbrenner es el fundador de una firma de inversión centrada en la Inteligencia Artificial General (AGI), respaldada por importantes inversionistas como Patrick y John Collison, Nat Friedman y Daniel Gross. Antes, trabajó en el equipo de Superalignment de OpenAI, donde contribuyó al avance de la IA avanzada. Además, tiene experiencia en investigación económica, habiendo trabajado en el Global Priorities Institute de la Universidad de Oxford y en la Universidad de Columbia, donde se enfocó en el estudio del crecimiento económico.