Hemos estado haciendo prompts de forma incorrecta — según el último artículo de Google
Hecho con Midjourney
El estado del prompting. Durante años, la sabiduría predominante detrás de los prompts para modelos de IA ha sido: más detalles + más contexto = mejor resultado. Este proceso de pensamiento alentó a los usuarios a idear prompts cada vez más elaborados para obtener los mejores resultados de la IA. Pero un nuevo artículo de Google Research sugiere que podríamos estar complicando demasiado las cosas.
El “código de trucos”. Solo copia y pega tu prompt para que aparezca dos veces. Eso es todo. Cuando se probó en Gemini, GPT-4o, Claude y DeepSeek (con el modo de razonamiento desactivado), esta estrategia de “repetición de prompts” ganó 47 de 70 pruebas de referencia — sin ninguna pérdida. En algunas tareas, la precisión aumentó hasta 76 puntos porcentuales.
La ciencia detrás de esto. Los LLMs leen de izquierda a derecha, lo que significa que los tokens iniciales no pueden “ver” lo que viene después en tu consulta. Al repetir el prompt, cada token obtiene una segunda pasada donde puede “mirar hacia atrás” en la consulta completa para obtener más contexto que podría haber perdido la primera vez. ¿Lo mejor? Esta estrategia no aumenta la latencia ni la longitud del resultado, lo que significa que es esencialmente una forma gratuita de obtener mejores resultados (obtén más información sobre cómo funciona aquí).
Poniéndolo en práctica. Esto no significa que debas abandonar los prompts detallados por completo — las tareas complejas aún requieren instrucciones complejas. Pero esta investigación ofrece una adición sorprendentemente simple a tu kit de herramientas de IA: cuando tengas dudas, dilo dos veces.
vía Superhuman
