System 2 Attention – Mejor atención para LLMs

El artículo titulado «System 2 Attention (is something you might need too)» de Jason Weston y Sainbayar Sukhbaatar de Meta aborda una innovación importante en el campo de los Modelos de Lenguaje Grandes (LLMs) basados en Transformer, específicamente en lo que respecta a su mecanismo de atención. Resumen y Objetivo El trabajo introduce «System 2 […]

System 2 Attention – Mejor atención para LLMs Leer más »

Scroll al inicio