Google DeepMind ha presentado Deep Research y Deep Research Max, la evolución de su agente de investigación autónoma construido sobre Gemini 3.1 Pro. El anuncio llega apenas unos meses después del lanzamiento preview de diciembre, y marca un salto cualitativo en capacidades, especialmente para flujos de trabajo empresariales.
Dos agentes, dos enfoques
Google ha diferenciado claramente ambas modalidades:
- Deep Research: Optimizado para velocidad y eficiencia. Reemplaza la versión preview de diciembre con latencia y coste significativamente menores, manteniendo una calidad superior. Ideal para superficies interactivas donde el usuario necesita resultados rápidos.
- Deep Research Max: Diseñado para máxima exhaustividad. Utiliza computación extendida en tiempo de test para razonar, buscar y refinar el informe final de forma iterativa. Perfecto para flujos asíncronos en segundo plano — como un job nocturno que genera informes de due diligence para un equipo de analistas que los encuentra listos al llegar por la mañana.
Rendimiento medido: salto en benchmarks
Deep Research Max representa un salto significativo en rendimiento frente a la versión de diciembre según benchmarks estándar de la industria que evalúan capacidades de retrieval y razonamiento. Además, Max consulta muchas más fuentes que la versión anterior e identifica matices críticos que aquella pasaba por alto.
En términos de coste, Deep Research Max es además más barato que la versión de diciembre a pesar de su mayor capacidad — un cambio notable en la propuesta de valor de Google para despliegues empresariales.
MCP y datos propietarios: el caso de uso enterprise
Una de las novedades más relevantes es el soporte nativo para Model Context Protocol (MCP). Deep Research puede conectarse a:
- Fuentes web abiertas
- Servidores MCP remotos personalizados (datos financieros, de mercado, repositorios propios)
- Archivos subidos (PDFs, CSVs, imágenes, audio, vídeo)
- File stores conectados
Esto permite trabajar con universos de datos propietarios — un caso de uso que antes requería pipelines complejos y custom. La integración con FactSet, S&P Global y PitchBook está en desarrollo activo, permitiendo a sus clientes integrar datos financieros exhaustivos en flujos impulsados por Deep Research. También se menciona soporte para SEC filings y artículos científicos peer-reviewed como fuentes autoritativas.
Visualizaciones nativas
Por primera vez en la Gemini API, Deep Research genera gráficos e infografías de forma nativa en línea con el texto del informe, utilizando HTML o el formato Nano Banana. Esto transforma reportes que antes eran puramente textuales en documentos visualmente enriquecidos y listos para presentar.
Control y transparencia en el proceso
- Planificación colaborativa: Revisar y refinar el plan de investigación antes de que el agente comience a ejecutar.
- Streaming en tiempo real: Seguir los pasos de razonamiento intermedios del agente con resúmenes en vivo.
- Ground multimodal: Combinar PDFs, CSVs, imágenes, audio y vídeo como contexto de entrada.
- Tooling extendido: Combinar Google Search, MCP servers remotos, URL Context, Code Execution y File Search simultáneamente — o desactivar el acceso web para buscar exclusivamente sobre datos propios.
- Weighing conflicting evidence: El agente está entrenado para consultar fuentes diversas y sopesar cuidadosamente evidencia contradictoria antes de emitir conclusiones.
Infraestructura probada a escala Google
La misma infraestructura que impulsa Deep Research es la que se usa en productos consolidados de Google como Gemini App, NotebookLM, Google Search y Google Finance. Esto significa escalabilidad y fiabilidad enterprise desde el primer día.
Disponibilidad
Deep Research y Deep Research Max están disponibles desde hoy en preview pública vía paid tiers en la Gemini API. Próximamente también estarán disponibles para startups y enterprises en Google Cloud.
📎 Fuente: Blog de Google — 21 de abril de 2026
