¿Qué Pasaría Si Leopold Aschenbrenner Tiene Razón?

En este post desarrollaremos el último capítulo del ensayo «Situational Awareness«, en el que Leopold Aschenbrenner reflexiona sobre lo que está por venir y nos planteamos una pregunta crucial: ¿y si tengo razón? Gran parte de esta serie ha tratado sobre la carrera hacia la Inteligencia General Artificial (AGI), y lo que sucederá una vez que crucemos ese umbral. La mayoría de las personas pueden imaginarse un futuro inmediato, pero la década que sigue —los 2030— será aún más impactante. El mundo, tal como lo conocemos, cambiará para siempre. Pero esa es una historia que dejamos para otro momento. Por ahora, unas cuantas reflexiones finales.


AGI Realismo

Hablar de AGI parece una idea fantástica o incluso alarmista para muchos, y no todos están dispuestos a contemplarla seriamente. Por cada avance en deep learning, surgen críticas que aseguran que la tecnología está llegando a sus límites, o que esto no es más que otra burbuja de Silicon Valley. Sin embargo, entre los que están en el centro de esta revolución tecnológica, el discurso se ha polarizado en dos extremos poco realistas.

Por un lado, están los doomers: aquellos que han advertido durante años sobre los riesgos de la AGI. Les debemos crédito por su visión, pero sus predicciones se han vuelto rígidas, desconectadas de la realidad y poco útiles. Piden detener indefinidamente el progreso de la IA, una propuesta imposible e irrealista, y pasan por alto la amenaza autoritaria que también está en juego.

Por el otro lado, están los e/accs (pro-aceleracionistas), defensores del progreso a toda costa. Si bien su insistencia en que el desarrollo de la IA debe continuar tiene algo de razón, su postura a menudo es superficial y está motivada por intereses comerciales. Tienden a subestimar los riesgos, argumentando que todo se reducirá a chatbots inofensivos. En realidad, su posición también es peligrosa, ya que ignoran el potencial devastador de la AGI.

Sin embargo, en el centro del debate, existe una postura más razonable, que llamaremos AGI Realismo. Los principios clave son claros:

  1. La superinteligencia es una cuestión de seguridad nacional. Estamos construyendo máquinas más inteligentes que los humanos más brillantes. No es solo otro boom tecnológico; será el arma más poderosa que la humanidad haya creado.
  2. Estados Unidos debe liderar. La supervivencia de la libertad depende de que Xi Jinping y el Partido Comunista Chino no desarrollen la AGI primero. Esto significa que no podemos permitirnos detener el desarrollo, pero también implica que la infraestructura de AGI debe estar bajo control estadounidense, no en manos de dictadores ni de capitales extranjeros.
  3. Los laboratorios de IA deben priorizar el interés nacional. La carrera hacia la superinteligencia no puede permitirse errores. Los riesgos son reales, y no podemos dejar que improvisaciones, accidentes o negligencia destruyan el futuro. Esto requiere que las mejores mentes se tomen en serio los peligros y actúen con responsabilidad.

¿Y Si Leopold Aschenbrenner Tiene Razón?

Es posible que, en este punto, pienses que todas las personas involucradas en la carrera por la AGI, especialmente las que están en San Francisco, están completamente locas. Pero haz una pausa y considera: ¿y si están en lo correcto? Estas son las personas que están creando esta tecnología. Muchos de ellos creen firmemente que la AGI será una realidad esta misma década. Y aunque sus estimaciones varían, muchos concuerdan en que las cosas podrían desarrollarse de la manera que hemos descrito en esta serie.

Es probable que algunos detalles que he presentado sean erróneos o que existan márgenes de error significativos, pero la esencia del escenario es clara: la inteligencia artificial, tal como la conocemos, cambiará profundamente y lo hará muy pronto. Todo está comenzando a sentirse mucho más real. Hace unos años, estas ideas eran solo especulaciones teóricas; ahora, puedo decirte cómo se construirá la AGI, con qué combinación de algoritmos y en qué infraestructura.

Cada vez se siente más visceral. Ya no se trata de estimaciones vagas sobre el tamaño del cerebro humano ni de extrapolaciones hipotéticas. Puedo ver claramente el camino hacia la AGI, quiénes estarán involucrados, cuáles son los problemas por resolver y cómo se resolverán. Puedo verlo.


La Cruda Realidad

Sin embargo, lo más aterrador no es la tecnología en sí, sino la falta de un equipo especializado listo para lidiar con todo esto. Cuando somos niños, creemos que existen héroes ocultos, científicos brillantes y líderes competentes que se ocuparán de salvar el día cuando todo se complique. Eso no es cierto.

El mundo es mucho más pequeño y frágil de lo que parece. Cuando te adentras en el verdadero centro de poder y tomas conciencia de la situación, te das cuenta de que solo un puñado de personas entienden realmente lo que está por suceder. Esas personas son tú y tus amigos. No hay un “equipo secreto” que esté preparado para manejar esto. Solo somos nosotros, un pequeño grupo de personas tratando de evitar que todo se derrumbe.

En unos años, será demasiado tarde para detenerlo. Pero en este momento, el destino del mundo está, al menos en parte, en manos de estas personas. La pregunta no es solo si Estados Unidos prevalecerá en esta carrera, sino si seremos capaces de dominar la superinteligencia antes de que sea ella la que nos domine.


El Último Rodeo

Estamos a punto de embarcarnos en uno de los mayores desafíos que la humanidad ha enfrentado: la carrera para construir, controlar y sobrevivir a la superinteligencia. Este será nuestro último gran desafío antes de que las máquinas comiencen a controlar el mundo. Todo lo que hagamos en los próximos años será determinante. Si los humanos pueden evitar la autodestrucción una vez más, será gracias al esfuerzo de los pocos que entienden la gravedad de lo que está por venir.

Es un reto monumental, pero según Leopold Aschenbrenner, es también un deber honorable; si conseguimos hacer las cosas bien, será lo más importante que habremos logrado en nuestras vidas. Cuando miremos hacia atrás en unos años, nos daremos cuenta de que estos momentos definieron el destino de la humanidad.

Enlaces al desarrollo por capítulos del ensayo «Situational Awareness»

En «Situational Awareness», Aschenbrenner no sólo destaca el rápido avance de la IA, sino que también llama a una reflexión profunda sobre los riesgos y beneficios que nos esperan en la próxima década. Si estás interesado en conocer más detalles sobre cada uno de los capítulos, consulta los siguientes enlaces.

Leopold Aschenbrenner es el fundador de una firma de inversión centrada en la Inteligencia Artificial General (AGI), respaldada por importantes inversionistas como Patrick y John Collison, Nat Friedman y Daniel Gross. Antes, trabajó en el equipo de Superalignment de OpenAI, donde contribuyó al avance de la IA avanzada. Además, tiene experiencia en investigación económica, habiendo trabajado en el Global Priorities Institute de la Universidad de Oxford y en la Universidad de Columbia, donde se enfocó en el estudio del crecimiento económico.

Scroll al inicio