El cursor parpadea. Pulsas Enter. La IA responde con algo que te dan ganas de cerrar el portátil y salir a caminar.
A todos nos ha pasado.
Pediste un correo profesional y obtuviste un ensayo divagante con seis signos de exclamación. Querías consejos específicos para tu situación y recibiste consejos tan genéricos que podrían servirle literalmente a cualquiera en la Tierra. Pediste un resumen sencillo y te devolvió un tratado filosófico sobre la naturaleza del propio resumen.
El instinto natural es borrarlo todo y empezar de cero, pero a menudo es el movimiento equivocado porque desperdicia la información de diagnóstico que tienes delante. Un mal resultado te dice algo. El truco es descubrir qué.
El arte de leer el fracaso
Un prompt fallido es un mensaje de la IA sobre lo que entendió, o más bien, lo que entendió mal.
Cuando la salida sale mal, suele caer en patrones reconocibles, y cada patrón apunta a un problema distinto en cómo estructuraste tu pedido. Salida genérica: falta contexto. Formato incorrecto: especificación poco clara. Se le fue el punto: redacción ambigua.
Un comentarista de Hacker News capturó la frustración a la perfección:
“But it essentially never makes what you expect… I’ve spent many hours on Midjourney”
Horas esperando una cosa, recibiendo otra. Esta es la experiencia universal de trabajar con sistemas de IA, y no significa que lo estés haciendo mal. Significa que estás aprendiendo el idioma.
La vaguedad mata
El modo de fallo más común, con diferencia, es pedir algo sin definir qué es exactamente ese algo.
“Escríbeme un correo de marketing” no le da nada con lo que trabajar a la IA. ¿Para qué audiencia? ¿Qué producto? ¿Qué tono? ¿Qué longitud? ¿Qué debería hacer el lector después de leerlo? Sin respuestas, la IA rellena los huecos con valores por defecto, y los valores por defecto, por definición, son genéricos.
La solución no es añadir más palabras. Los prompts malos no son demasiado cortos. Son demasiado vagos. Un prompt de diez palabras con tres detalles concretos superará a uno de cien palabras que nunca aterriza nada.
Mira la diferencia entre estos dos:
“Ayúdame a escribir un correo a clientes sobre nuestra nueva funcionalidad.”
frente a
“Escribe un correo de 150 palabras anunciando nuestra nueva función de programación a clientes actuales que la han pedido. Tono: cercano, sin sonar vendedor. Incluye una llamada a la acción clara para que prueben la función.”
El segundo prompt es más largo, pero la longitud no es el punto. Cada palabra añadida hace trabajo. Nada es relleno. Esa es la diferencia.
Cuando las instrucciones se contradicen
A veces la IA no está confundida. Lo estás tú.
“Sé completo pero mantén la brevedad.” Eso es una contradicción. Estás pidiendo dos cosas incompatibles, y la IA tiene que elegir una o, peor, intentar satisfacer ambas y fallar en ambas.
“Sé creativo pero ciñete a los hechos.” Otra trampa. La creatividad implica inventar; los hechos implican restricción. Puedes tener una presentación creativa de hechos, o un anclaje factual con adornos creativos, pero decirle a la IA que sea ambas cosas sin especificar cómo se relacionan produce una salida confusa.
Estas contradicciones son fáciles de escribir y difíciles de detectar en tus propios prompts porque tú sabes lo que querías decir. La IA no tiene acceso a tus intenciones, solo a tus palabras.
Lee tu prompt como lo leería un intérprete hostil. ¿Qué podría malinterpretarse? ¿Qué instrucciones podrían entrar en conflicto? ¿Dónde asumiste que la IA entendería lo que realmente querías?
El prompt sobrecargado
Otro comentarista de Hacker News clavó un problema relacionado que atormenta a quienes diseñan prompts en sistemas más grandes:
“a 3,000-token system prompt isn’t ‘logic’, it’s legacy code that no one wants to touch. It’s brittle, hard to test, and expensive to run. It is Technical Debt.”
Esto también aplica a prompts individuales. Cuando lo metes todo en una sola petición, la calidad se resiente por todas partes.
“Escribe una entrada de blog y crea cinco publicaciones para redes sociales y sugiere asuntos de correo y también dime qué palabras clave atacar” no es una tarea. Son cuatro tareas metidas en una gabardina fingiendo ser una sola. La IA intentará hacer las cuatro y no clavará ninguna.
Sepáralo. Una cosa a la vez. Usa la salida del paso uno como entrada del paso dos. Es más lento, pero produce resultados dramáticamente mejores.
Fallos de formato
Querías una lista con viñetas. Obtuviste prosa. Pediste JSON. Obtuviste una descripción de lo que contendría el JSON. Pediste 200 palabras. Recibiste 800.
Los fallos de formato ocurren cuando asumes que la IA va a adivinar bien y adivina mal.
La solución es ridículamente simple: di qué formato quieres. No “dame algunas ideas” sino “dame 5 ideas como lista numerada, una frase cada una”. No “resume esto” sino “resume esto en 3 viñetas con un total de menos de 100 palabras”.
Cuando el formato es inusual o complejo, muestra un ejemplo. Los sistemas de IA son excelentes reconociendo patrones, y enseñar una plantilla de lo que quieres es más claro que describirlo.
El juego del teléfono
Las conversaciones largas crean un modo de fallo sutil que es fácil de pasar por alto.
Empezaste con un objetivo claro. Quince intercambios después, el contexto se ha ido desplazando, las instrucciones anteriores se han desvanecido, y la IA se ha enganchado a algo que mencionaste de pasada como si fuera el punto principal.
Esto es el juego del teléfono en tiempo real. La información se degrada con la distancia.
La solución es reponer el contexto de forma periódica, recordándole explícitamente a la IA los parámetros clave cada pocos intercambios en una conversación larga. “Recordatorio rápido: escribimos para [público], buscamos un [tono] y el objetivo es [resultado específico].” Suena redundante, pero evita la deriva.
Los fallos de hechos son distintos
Cuando la IA se inventa cosas, eso es otra categoría de problema por completo.
No hay prompt que te saque de una alucinación, porque la IA no está fallando al entender tus instrucciones. Está fallando al saber cosas. Ninguna redacción ingeniosa hará que recuerde un hecho que nunca aprendió o que genere información precisa sobre eventos posteriores a su fecha de corte de entrenamiento.
Para contenido basado en hechos, el enfoque cambia: tú aportas los hechos. Dale a la IA las estadísticas, las citas, los puntos de datos, la información específica que importa. Que ella se encargue de estructura, fluidez y presentación mientras tú te encargas de la exactitud.
Pedirle a una IA que “incluya estadísticas relevantes” es pedirle que adivine qué estadísticas podrían ser reales. Darle “usa estas tres estadísticas: [datos reales verificados]” te mantiene al mando de la exactitud.
Diagnóstico antes de la cirugía
Cuando la salida falla, resiste la urgencia de reescribir inmediatamente. Primero, averigua qué falló.
¿Es genérica? Busca el contexto que falta. ¿El formato está mal? Revisa si especificaste el formato. ¿Se perdió el punto? Caza la ambigüedad en tu redacción. ¿Es contradictoria? Examina tus instrucciones en busca de conflictos. ¿Es superficial? Considera si pediste profundidad.
Cada tipo de fallo tiene una solución distinta, y aplicar la solución equivocada hace perder tiempo mientras no te enseña nada.
Este paso de diagnóstico tarda treinta segundos. Saltártelo y reescribir desde cero tarda cinco minutos y a menudo recrea el mismo problema con otras palabras.
El bucle de iteración
Una vez identificas el tipo de fallo, haz un cambio. Pruébalo. Mira qué pasa.
Esto se siente tedioso. Es tedioso. También es más rápido que cambiar cinco cosas a la vez y no tener idea de cuál cambio ayudó o empeoró.
Las pruebas de una sola variable funcionan en la ingeniería de prompts igual que en la ciencia y en las pruebas A/B. Cambia una cosa, observa el resultado, ajusta tu hipótesis, repite.
La tentación de reescribirlo todo viene de la frustración, no de la estrategia. La frustración produce acción sin aprendizaje. La iteración sistemática produce aprendizaje que puedes aplicar a cada prompt futuro.
Cuándo quemarlo todo
A veces iterar no te va a salvar.
Si has hecho cuatro o cinco correcciones específicas y nada mejora, puede que el prompt esté mal a nivel estructural. Puede que la tarea base no esté clara para ti, no solo para la IA. Puede que estés pidiendo lo equivocado por completo.
Señales de que deberías empezar de cero:
La IA parece genuinamente confundida con lo que estás pidiendo, no solo dando respuestas subóptimas sino pareciendo responder a una pregunta completamente distinta. Tus correcciones siguen desplazando el problema en lugar de resolverlo. Te das cuenta, a mitad de depuración, de que lo que pediste no es realmente lo que necesitas.
Empezar de cero no es fracaso. A veces necesitas escribir un prompt malo para descubrir cómo sería un buen prompt para tu objetivo real.
La verdad incómoda
La ingeniería de prompts a menudo es insatisfactoria porque se siente como si debería ser más fácil de lo que es.
Estás escribiendo en lenguaje corriente. La IA entiende el lenguaje. ¿Por qué no funciona sin más?
Porque el lenguaje natural es inherentemente ambiguo, porque lo que te parece obvio a ti no es obvio para un modelo estadístico, porque la IA es muy buena produciendo una salida plausible que coincide con patrones de sus datos de entrenamiento y menos buena entendiendo lo que tú necesitas en concreto.
Esto no va a desaparecer. Los modelos mejores reducirán parte de la fricción, pero el reto fundamental de comunicar intención precisa con lenguaje impreciso es un problema humano, no de tecnología.
Aprender a depurar prompts es aprender a comunicar con más precisión de la que requiere una conversación normal, y esa habilidad también se transfiere a la comunicación humana. El ingeniero que escribe buenos prompts escribe correos más claros, crea mejor documentación, da retroalimentación más útil.
El cursor parpadea. Lo intentas de nuevo. Al final, funciona. La pregunta es si aprendiste algo en el proceso o si solo tuviste suerte. Depurar te da el aprendizaje. Reescribir al azar te da la suerte. Una de esas cosas se acumula con el tiempo.