Deep Research y Deep Research Max: la nueva generación de agentes de investigación autónoma de Gemini

Google DeepMind ha presentado Deep Research y Deep Research Max, la evolución de su agente de investigación autónoma construido sobre Gemini 3.1 Pro. El anuncio llega apenas unos meses después del lanzamiento preview de diciembre, y marca un salto cualitativo en capacidades, especialmente para flujos de trabajo empresariales.

Dos agentes, dos enfoques

Google ha diferenciado claramente ambas modalidades:

  • Deep Research: Optimizado para velocidad y eficiencia. Reemplaza la versión preview de diciembre con latencia y coste significativamente menores, manteniendo una calidad superior. Ideal para superficies interactivas donde el usuario necesita resultados rápidos.
  • Deep Research Max: Diseñado para máxima exhaustividad. Utiliza computación extendida en tiempo de test para razonar, buscar y refinar el informe final de forma iterativa. Perfecto para flujos asíncronos en segundo plano — como un job nocturno que genera informes de due diligence para un equipo de analistas que los encuentra listos al llegar por la mañana.

Rendimiento medido: salto en benchmarks

Deep Research Max representa un salto significativo en rendimiento frente a la versión de diciembre según benchmarks estándar de la industria que evalúan capacidades de retrieval y razonamiento. Además, Max consulta muchas más fuentes que la versión anterior e identifica matices críticos que aquella pasaba por alto.

En términos de coste, Deep Research Max es además más barato que la versión de diciembre a pesar de su mayor capacidad — un cambio notable en la propuesta de valor de Google para despliegues empresariales.

MCP y datos propietarios: el caso de uso enterprise

Una de las novedades más relevantes es el soporte nativo para Model Context Protocol (MCP). Deep Research puede conectarse a:

  • Fuentes web abiertas
  • Servidores MCP remotos personalizados (datos financieros, de mercado, repositorios propios)
  • Archivos subidos (PDFs, CSVs, imágenes, audio, vídeo)
  • File stores conectados

Esto permite trabajar con universos de datos propietarios — un caso de uso que antes requería pipelines complejos y custom. La integración con FactSet, S&P Global y PitchBook está en desarrollo activo, permitiendo a sus clientes integrar datos financieros exhaustivos en flujos impulsados por Deep Research. También se menciona soporte para SEC filings y artículos científicos peer-reviewed como fuentes autoritativas.

Visualizaciones nativas

Por primera vez en la Gemini API, Deep Research genera gráficos e infografías de forma nativa en línea con el texto del informe, utilizando HTML o el formato Nano Banana. Esto transforma reportes que antes eran puramente textuales en documentos visualmente enriquecidos y listos para presentar.

Control y transparencia en el proceso

  • Planificación colaborativa: Revisar y refinar el plan de investigación antes de que el agente comience a ejecutar.
  • Streaming en tiempo real: Seguir los pasos de razonamiento intermedios del agente con resúmenes en vivo.
  • Ground multimodal: Combinar PDFs, CSVs, imágenes, audio y vídeo como contexto de entrada.
  • Tooling extendido: Combinar Google Search, MCP servers remotos, URL Context, Code Execution y File Search simultáneamente — o desactivar el acceso web para buscar exclusivamente sobre datos propios.
  • Weighing conflicting evidence: El agente está entrenado para consultar fuentes diversas y sopesar cuidadosamente evidencia contradictoria antes de emitir conclusiones.

Infraestructura probada a escala Google

La misma infraestructura que impulsa Deep Research es la que se usa en productos consolidados de Google como Gemini App, NotebookLM, Google Search y Google Finance. Esto significa escalabilidad y fiabilidad enterprise desde el primer día.

Disponibilidad

Deep Research y Deep Research Max están disponibles desde hoy en preview pública vía paid tiers en la Gemini API. Próximamente también estarán disponibles para startups y enterprises en Google Cloud.

📎 Fuente: Blog de Google — 21 de abril de 2026

Scroll al inicio