System 2 Attention – Mejor atención para LLMs
El artículo titulado «System 2 Attention (is something you might need too)» de Jason Weston y Sainbayar Sukhbaatar de Meta aborda una innovación importante en el campo de los Modelos de Lenguaje Grandes (LLMs) basados en Transformer, específicamente en lo que respecta a su mecanismo de atención. Resumen y Objetivo El trabajo introduce «System 2 […]
System 2 Attention – Mejor atención para LLMs Leer más »