Un estudio de Google sugiere que un ajuste muy simple puede mejorar la calidad de las respuestas de modelos de lenguaje: volver a enviar la misma instrucción dentro del mismo mensaje. La técnica consiste en repetir el prompt, lo que refuerza el contexto al que el modelo tiene acceso y, según los autores, mejora su acierto.
El trabajo, publicado como preprint en arXiv bajo el título Prompt Repetition Improves Non-Reasoning LLMs, parte de una intuición sencilla: los modelos procesan texto como secuencia y el orden de los tokens influye.
Cómo lo midieron y descubrieron el truco
Los autores evaluaron la técnica entre febrero y marzo de 2025 sobre siete modelos comerciales y en siete benchmarks como ARC, GSM8K y MATH. Según el paper, la repetición mejoró el desempeño en 47 de 70 combinaciones modelo-benchmark y mostró aumentos muy llamativos en pruebas puntuales.
Un caso notable fue NameIndex, donde Gemini 2.0 Flash-Lite pasó de 21,33% a 97,33% de acierto con la repetición del prompt. Los autores aclaran que no es un efecto universal: no garantiza mejoras en todas las tareas ni en todos los modelos, y el estudio es un preprint que aún no atravesó revisión por pares.
Para productos y servicios, el hallazgo es atractivo porque propone una mejora de bajo costo: según el paper, repetir el pedido no aumenta el número de tokens generados y, cuando el razonamiento está desactivado, las latencias se mantienen similares. Solo en modelos de Anthropic con inputs muy largos se observó un aumento notable del tiempo de respuesta.
Cómo probarlo en la práctica
En la práctica, repetir el prompt suele ayudar en preguntas concretas, tareas de extracción y respuestas breves y estructuradas. Un ejemplo del artículo muestra: “Resumí este texto en cinco líneas.” y propone probar con: “Resumí este texto en cinco líneas. Resumí este texto en cinco líneas.” No obstante, no es solución para razonamiento extendido.
La idea central es que, incluso con sistemas cada vez más potentes, pequeños cambios de presentación pueden alterar la respuesta. Repetir el prompt es un recurso simple y aplicable inmediatamente en asistentes, buscadores y herramientas de soporte que busquen ganar precisión sin encarecer la operación ni ampliar la generación de texto.
Fuente: La 100







