Gemma 4 en tu navegador: extensión Chrome con IA on-device

Una extensión de Chrome permite usar Gemma 4 localmente, sin servidor externo. Procesa todo en WebGPU dentro del navegador. Gestiona pestañas, busca en historial con lenguaje natural y extrae contenido de páginas via RAG. ¿Qué es? Gemma4-Browser-Extension es una extensión de Chrome que ejecuta un agente de IA completamente en el dispositivo del usuario. Usa […]

Gemma 4 en tu navegador: extensión Chrome con IA on-device Leer más »

Qwen3.6-27B: el modelo denso de 27B que supera al MoE de 397B en codificación

Qwen3.6-27B es un modelo de lenguaje multimodal denso de 27.000 millones de parámetros, de código abierto, que logra un rendimiento de nivel flagship en codificación agentiva — superando al modelo MoE Qwen3.5-397B-A17B (397B totales / 17B activos) en todos los principales benchmarks de programación. ¿Qué es Qwen3.6-27B? Después del lanzamiento de Qwen3.6-Plus y Qwen3.6-35B-A3B, Alibaba

Qwen3.6-27B: el modelo denso de 27B que supera al MoE de 397B en codificación Leer más »

Deep Research y Deep Research Max: la nueva generación de agentes de investigación autónoma de Gemini

Google DeepMind ha presentado Deep Research y Deep Research Max, la evolución de su agente de investigación autónoma construido sobre Gemini 3.1 Pro. El anuncio llega apenas unos meses después del lanzamiento preview de diciembre, y marca un salto cualitativo en capacidades, especialmente para flujos de trabajo empresariales. Dos agentes, dos enfoques Google ha diferenciado

Deep Research y Deep Research Max: la nueva generación de agentes de investigación autónoma de Gemini Leer más »

DeepSeek-V4: 1M tokens de contexto y eficiencia 10x para razonamiento escalable

DeepSeek ha lanzado oficialmente DeepSeek-V4, su nueva serie de modelos de lenguaje basados en Mixture-of-Experts (MoE), disponibles en dos variantes: DeepSeek-V4-Pro (1.6T parámetros totales, 49B activados) y DeepSeek-V4-Flash (284B totales, 13B activados). Ambos soportan un contexto de un millón de tokens, marcando un hito en eficiencia computacional. Arquitectura: CSA + HCA y Hyper-Connections DeepSeek-V4 introduce

DeepSeek-V4: 1M tokens de contexto y eficiencia 10x para razonamiento escalable Leer más »

GPT-5.5: OpenAI redefine la frontera de la inteligencia artificial

OpenAI ha anunciado oficialmente GPT-5.5, su nuevo modelo insignia que promete combinar niveles de inteligencia sin precedentes con la velocidad y eficiencia que caracterizaron a GPT-5.4. Se trata del modelo mas avanzado hasta la fecha en la familia GPT, y su presentacion llega precedida de filtraciones internas que ya anticipaban su existencia bajo nombres como

GPT-5.5: OpenAI redefine la frontera de la inteligencia artificial Leer más »

¿Qué es un LCM? Los modelos que procesan conceptos

En el mundo de la inteligencia artificial, las innovaciones no paran de sorprendernos. Una de las más recientes proviene del equipo de investigación de Meta, quienes han presentado una arquitectura revolucionaria conocida como Large Concept Models (LCMs). Esta propuesta, descrita en el paper «Large Concept Models: Language Modeling in a Sentence Representation Space«, plantea una

¿Qué es un LCM? Los modelos que procesan conceptos Leer más »

Scroll al inicio