Has visto estos prompts por todas partes. “Actúa como un senior software engineer.” “Eres un experto en marketing con 20 años de experiencia.” “Finge que eres un profesor de Harvard especializado en economía.”
La idea es simple: dale a la IA un rol y debería responder desde esa perspectiva. Como method acting, pero para modelos de lenguaje.
Millones de personas usan esta técnica. Se enseña en cursos de prompt engineering. Está integrada en incontables plantillas y GPTs personalizados. Pero aquí va la pregunta incómoda que nadie quiere responder: ¿realmente funciona?
La investigación dice… depende.
Evidencia mixta
Un paper titulado “Better Zero-Shot Reasoning with Role-Play Prompting” mostró mejoras de precisión del 53,5% al 63,8% en problemas de matemáticas en lenguaje natural al usar prompts basados en roles con GPT-3.5. Es una mejora real. La técnica parecía prometedora.
Luego los investigadores miraron más de cerca.
Un estudio originalmente titulado “When ‘A Helpful Assistant’ Is Not Really Helpful” afirmó al principio que añadir roles interpersonales mejora de forma consistente el rendimiento del modelo. Pero en octubre de 2024, los autores actualizaron sus hallazgos. Tras probar en 4 familias de modelos y 2.410 preguntas factuales, cambiaron su conclusión: “personas in system prompts did not improve model performance across a range of questions compared to the control setting.”
Es un giro completo.
Learn Prompting hizo su propio experimento. Probaron 12 personas diferentes en 2.000 preguntas MMLU usando GPT-4-turbo. Los resultados fueron sorprendentemente consistentes entre todas las personas. La persona “idiot” superó a la persona “genius”. Léelo otra vez.
Entonces… ¿qué está pasando?
El problema de la confianza
En Hacker News, el usuario GuB-42 hizo una prueba que captura lo que mucha gente experimenta:
“I did a short test prompting ChatGPT do be an ‘average developer, just smart enough not to get fired’, an ‘expert’ and no persona. I got 3 different answers but I couldn’t decide which one was the best.”
Las respuestas eran distintas. El tono cambió. Pero la calidad real… difícil de juzgar.
GuB-42 planteó una preocupación más profunda:
“I fear that but asking a LLM to be an expert, it will get the confidence of an expert rather than the skills of an experts, and a manipulative AI is something I’d rather not have.”
Esto importa. Cuando le dices a una IA que actúe como experta, no gana experiencia de golpe. Ajusta el estilo de salida para parecerse a “texto con voz de experto” en sus datos de entrenamiento. Lenguaje más seguro. Menos reservas. Pero el conocimiento base es el mismo.
Un LLM con prompt de “profesor de Harvard” no sabe más que uno con prompt de “principiante curioso”. Solo suena más autoritario.
Los modelos más nuevos cambiaron el juego
Aquí es donde se pone interesante. Respondiendo al mismo hilo de HN, el usuario bfeynman soltó una evaluación directa:
“This used to work but new thinking models made this unnecessary for the most part.”
Esto encaja con lo que muchos practicantes están notando. GPT-4o, Claude 3.5 Sonnet y los modelos de razonamiento más nuevos parecen necesitar menos los role prompts que sus predecesores. La brecha entre “persona experta” y “sin persona” se redujo.
¿Por qué? Los modelos modernos son mejores infiriendo lo que necesitas por el contexto. Captan la naturaleza de tu pregunta sin que les asignes roles explícitos. Haz una pregunta técnica de código y responden técnicamente. Pide escritura creativa y cambian de registro automáticamente.
El prefijo “eres un experto” quizá fue un andamio útil para modelos más antiguos y más pequeños. Para modelos punteros en 2026, a menudo es una sobrecarga innecesaria.
Dónde los roles todavía ayudan
Esto no significa abandonar los prompts de rol. Funcionan bien en situaciones específicas.
Tareas creativas y abiertas. Si quieres una voz o estilo concreto, las personas ayudan. “Escribe esto como una novela negra de detective” produce un resultado distinto que una petición genérica. El modelo tiene patrones de estilo de donde tirar.
Definir tono y registro. “Eres una maestra de infantil paciente” crea explicaciones distintas que “eres un redactor de documentación técnica”. No porque uno sepa más, sino porque enmarcan la información de forma diferente.
Limitar el alcance. A veces quieres que el modelo se mantenga “en personaje” y no se vaya por las ramas. Una persona de atención al cliente puede desviar preguntas fuera de tema más naturalmente que unas instrucciones explícitas.
Roleplay y simulación. Si usas un LLM para practicar diálogos, preparar entrevistas o escribir ficción interactiva, las personas son esenciales. Es el punto.
Lo que los roles no hacen de forma fiable: volver el modelo más inteligente, más preciso o más conocedor de hechos a los que no tenía acceso.
El problema de la especificidad
La investigación de ExpertPrompting encontró algo inesperado. Cuando compararon “vanilla prompting” contra “vanilla prompting con una descripción estática de experto”, los resultados fueron casi idénticos. Las asignaciones genéricas aportaron muy poco.
Pero prompts de experto detallados y específicos para la tarea, generados por otro LLM, superaron con claridad a ambos.
El patrón: roles vagos hacen poco. Roles detallados, ajustados a la tarea específica, pueden ayudar. Personas generadas por un LLM a menudo superaron a las escritas por humanos.
Si vas a usar un rol, sé específico. “Eres un desarrollador Python especializado en pipelines de datos y con opiniones fuertes sobre manejo de errores” es mejor que “eres un experto en código”. El modelo necesita suficiente detalle para saber qué patrones sacar.
Género y representación en los datos de entrenamiento
Hay otro matiz. Learn Prompting reporta que los prompts con roles masculinos a menudo superan a los roles femeninos en ciertas tareas. Roles interpersonales no íntimos (amigo, supervisor) dieron mejores resultados que roles ocupacionales en algunos contextos.
Esto no tiene que ver con opiniones del modelo. Refleja desequilibrios en los datos de entrenamiento. Si “senior engineer” en el corpus se inclina hacia ciertas demografías, la concepción del modelo de ese rol arrastra esos patrones.
Conviene tenerlo presente. No va a cambiar tu estrategia de prompting de la noche a la mañana, pero es un recordatorio de que estas técnicas se cruzan con temas más profundos sobre cómo aprenden los modelos.
Otro enfoque: ¿qué output quieres de verdad?
Role prompting siempre fue un proxy de otra cosa: decirle al modelo qué tipo de salida quieres.
“Actúa como un experto” muchas veces significa “dame respuestas detalladas y seguras”. Pero puedes decirlo directamente. “Proporciona una explicación técnica detallada con ejemplos específicos” suele funcionar mejor que envolver la misma petición en una persona.
“Eres un escritor creativo” significa “prioriza una prosa atractiva sobre una precisión seca”. También puedes especificarlo.
La persona es un atajo. A veces útil. A veces no. El modelo no tiene una identidad que ponerse. Tiene patrones que imitar y probabilidades que muestrear. Entenderlo cambia cómo piensas en prompting.
Cuando quitas la metáfora del roleplay, queda una pregunta más simple: ¿qué características de salida quieres? Enfócate en eso. Sé directo. El modelo sigue.
Algunas cosas que vale probar
Si aun así quieres experimentar con roles, aquí van enfoques que han mostrado potencial:
Inmersión en dos etapas. En lugar de un “eres X” estático, algunos investigadores vieron éxito con una fase de calentamiento donde el modelo primero habla de cómo sería ser ese experto y luego aborda la tarea. El paper de role-play prompting usó esto para lograr ese salto del 53,5% al 63,8%. Más trabajo, pero potencialmente más efectivo.
Que el LLM genere la persona. ExpertPrompting mostró que descripciones de expertos generadas por un LLM superaron a las escritas por humanos. Si necesitas una persona, considera pedirle al modelo que primero genere el perfil ideal de experto para tu tarea.
Enmarcar por audiencia. En vez de “eres X”, prueba “le estás explicando esto a X”. La investigación sugiere que enmarcar por audiencia a veces funciona mejor que asignar identidad. “Explica machine learning a un niño curioso de 10 años” vs. “eres un profesor. Explica machine learning”.
Sáltatelo para tareas de precisión. La evidencia es bastante clara: para preguntas factuales, los role prompts no ayudan y podrían perjudicar. Pide con claridad y buen contexto.
Qué significa esto para tu flujo de trabajo
El marco de “act as” nunca fue magia. Siempre fue solo una forma de comunicar preferencias. Ahora que los modelos entienden mejor preferencias expresadas de manera directa, el marco importa menos que antes.
Para la mayoría de casos prácticos, probablemente te conviene:
- ser específico sobre lo que quieres
- dar contexto relevante
- mostrar ejemplos de buen output
- describir el formato que necesitas
Esto supera a “eres un experto” casi siempre.
Pero si estás haciendo trabajo creativo, construyendo un chatbot con personalidad o necesitas una voz concreta, los roles siguen teniendo sentido. Solo que no son la técnica universal que a veces se vende.
La técnica funciona mejor cuando tienes claro por qué la usas. ¿Moldear el tono? Genial. ¿Precisión factual? Mira a otro lado.
¿Qué técnica de prompting has encontrado que realmente mueve la aguja? Eso quizá valga la pena probarlo de forma más sistemática que cualquier asignación de rol.