Cómo escribir mejores prompts: guía práctica para equipos que quieren resultados consistentes
Contenido
- Por qué los prompts importan más de lo que parece
- La estructura que funciona siempre: Rol + Contexto + Tarea + Formato + Restricciones
- Ejemplos few-shot: el truco que marca la diferencia
- Iteración en cadena: prompts como conversación, no como comando
- Seguridad y límites dentro del prompt
- Cómo construir y mantener una librería de prompts en equipo
- Los 6 errores de prompt más frecuentes y cómo evitarlos
- Plantilla lista para usar
Hay una ilusión frecuente en los equipos que empiezan a usar IA: creer que la calidad de la respuesta depende principalmente del modelo. En realidad, el 60–70% de la variación en la calidad de la respuesta se explica por la calidad del prompt. El mismo modelo con un prompt vago da una respuesta genérica; con un prompt bien construido, da exactamente lo que necesitas. Esto es especialmente crítico en equipos donde varias personas usan las mismas herramientas: si cada uno promtea diferente, los resultados son inconsistentes y la IA parece poco fiable aunque el problema sea la instrucción.
Por qué los prompts importan más de lo que parece
Un modelo de lenguaje no "entiende" lo que quieres en el sentido humano: genera la continuación más probable a lo que le escribiste, basándose en patrones de su entrenamiento. Si lo que le escribiste es vago, la continuación más probable también será vaga. Si lo que le escribiste es preciso, con contexto y formato definido, la respuesta será precisa y en el formato correcto.
Esto tiene una implicación práctica muy concreta para los equipos: un buen prompt es un activo empresarial, no el conocimiento privado de la persona que lo descubrió. El equipo que documenta y comparte sus mejores prompts supera sistemáticamente al equipo donde cada persona descubre los suyos de forma individual.
La estructura que funciona siempre
Independientemente de la tarea, esta estructura produce resultados consistentes:
| Componente | Qué hace | Ejemplo |
|---|---|---|
| Rol | Le dice al modelo qué perspectiva adoptar | "Actúa como abogado especialista en contratos comerciales" |
| Contexto | Explica la situación y la audiencia | "Este documento es para un cliente corporativo de mediana empresa colombiana" |
| Tarea | Define exactamente qué producir | "Identifica las tres cláusulas de mayor riesgo y explica por qué" |
| Formato | Especifica la estructura del output | "En lista numerada, máximo 2 oraciones por cláusula, sin jerga legal excesiva" |
| Restricciones | Marca los límites de lo que NO debe hacer | "No añadas cláusulas que no estén en el documento. No des consejo legal definitivo." |
No todos los componentes son siempre obligatorios. Para tareas simples, dos o tres son suficientes. Para tareas delicadas o con alta variabilidad esperada, los cinco son necesarios.
Ejemplos few-shot: el truco que marca la diferencia
Few-shot significa incluir en el prompt uno o dos ejemplos de input y output deseado antes de dar la tarea real. El modelo no "aprende" de forma permanente —cada conversación empieza desde cero—, pero calibra su patrón de respuesta para ese intercambio específico. Es especialmente valioso cuando:
- El tono o el estilo de marca es muy específico y difícil de describir solo con palabras
- La tarea implica clasificación o extracción con criterios sutiles
- El formato de salida es complejo o inusual
Ejemplo few-shot para clasificación de tickets de soporte:
"Clasifica cada ticket en una de estas categorías: [Facturación / Técnico / Comercial / Otro]. Ejemplos:
Ticket: 'Mi factura del mes pasado tiene un cobro que no reconozco' → Facturación
Ticket: 'La app no carga en mi celular desde ayer' → Técnico
Ahora clasifica: 'Quiero saber si tienen descuento para equipos de más de 10 usuarios'"
Iteración en cadena: prompts como conversación
Uno de los errores más frecuentes es intentar resolver todo en un único mega-prompt. Los modelos actuales tienen capacidad de contexto amplia, pero dividir la tarea en pasos produce resultados más controlables y auditables. El flujo típico que funciona:
- Borrador amplio: pide el primer draft sin restricciones de longitud. Obtén el material.
- Refinamiento dirigido: en el segundo mensaje pide ajustes específicos: "Acorta al 60%, mantén solo los tres argumentos más fuertes, añade un ejemplo concreto en el segundo párrafo."
- Verificación crítica: pide que el modelo identifique sus propias suposiciones no verificadas o los puntos que requieren fuente externa para validar.
Este flujo convierte al modelo en un colaborador crítico, no solo en un generador de texto. La calidad final es significativamente mayor que con el enfoque de un solo prompt.
Seguridad y límites dentro del prompt
Los prompts bien diseñados incluyen restricciones explícitas que previenen errores y alinean con políticas internas. Las restricciones más importantes para contextos empresariales:
- "No inventes cifras ni estadísticas" — previene alucinaciones en contenido informativo
- "Usa solo la información del documento adjunto" — previene que el modelo mezcle conocimiento externo cuando no es deseable
- "No incluyas datos personales aunque estén en el texto" — alinea con política de privacidad
- "Si no tienes suficiente información para responder con certeza, dilo explícitamente" — promueve la honestidad epistémica del modelo
Construir y mantener una librería de prompts en equipo
Una librería de prompts no necesita ser sofisticada para ser valiosa: un Google Doc bien organizado, un canal en Slack con formato estándar, o una página en Notion ya son suficientes para empezar. Lo importante es la disciplina de uso y actualización.
Estructura mínima para cada entrada de la librería:
- Nombre del prompt (descriptor corto del caso de uso)
- Modelo en el que funciona (algunos prompts son sensibles al modelo)
- Cuándo usarlo (descripción del caso de uso específico)
- El prompt completo con marcadores para los campos variables [ENTRE CORCHETES]
- Ejemplo de output esperado
- Notas (cuándo NO funciona bien, qué ajustes hacer según la situación)
Los 6 errores más frecuentes
- Prompt demasiado corto para una tarea compleja: "resume este documento" no da suficiente contexto para un resumen útil y dirigido.
- No especificar la audiencia: el modelo no sabe si el texto es para un CEO, un técnico o un cliente sin experiencia previa.
- No especificar el formato: sin formato definido, el modelo elige el que considera más probable, que rara vez coincide con el que necesitas.
- Mezclar múltiples tareas distintas en un único prompt: "Resume, traduce, reformatea y envía" produce resultados mediocres en todo.
- No actualizar los prompts cuando cambia el modelo: un prompt optimizado para GPT-3.5 puede no funcionar igual de bien en GPT-4 o Claude 3.
- No documentar los prompts que funcionan: el conocimiento queda en la persona, no en la empresa.
Plantilla lista para usar
Rol: Actúa como [perfil profesional con especialización específica].
Contexto: [Descripción de la situación, el destinatario y el propósito del output].
Tarea: [Verbo de acción + qué producir + criterios de calidad].
Formato: [Estructura, longitud, tono, estilo, idioma].
Restricciones: No [límite 1]. No [límite 2]. Usa solo [fuente de información si aplica].
Ejemplo esperado (opcional): [Muestra de un output ideal para calibrar el patrón].
En MWS diseñamos talleres prácticos de prompt engineering con casos de uso reales de tu empresa y construimos la librería de prompts que el equipo usará desde el lunes siguiente.
→ Hablemos sobre formación en IA para tu equipo