prompt-engineering
8 min read
View as Markdown

Role prompting: quando "aja como um especialista" funciona de verdade (e quando não funciona)

A pesquisa sobre role prompting é mista. Aqui está o que sabemos sobre prompts de persona, quando eles ajudam e por que os modelos mais novos talvez nem precisem disso.

Robert Soares

Você já viu esses prompts em todo lugar. “Aja como um engenheiro de software sênior.” “Você é um especialista em marketing com 20 anos de experiência.” “Finja que você é um professor de Harvard especializado em economia.”

A ideia é simples: dê um papel para a IA, e ela deveria responder a partir dessa perspectiva. Tipo method acting, só que para modelos de linguagem.

Milhões de pessoas usam isso. É ensinado em cursos de prompt engineering. Está embutido em incontáveis templates e GPTs personalizados. Mas aqui vai a pergunta desconfortável que ninguém quer encarar: isso realmente funciona?

A pesquisa diz… depende.

Evidência mista

Um artigo chamado “Better Zero-Shot Reasoning with Role-Play Prompting” mostrou melhorias de acurácia de 53,5% para 63,8% em problemas de matemática em linguagem natural ao usar prompts baseados em papéis com o GPT-3.5. É um ganho relevante. Parecia promissor.

Depois os pesquisadores olharam com mais cuidado.

Um estudo originalmente intitulado “When ‘A Helpful Assistant’ Is Not Really Helpful” inicialmente afirmou que adicionar papéis interpessoais melhora consistentemente o desempenho do modelo. Mas em outubro de 2024, os autores atualizaram os resultados. Depois de testar em 4 famílias de modelos e 2.410 perguntas factuais, eles mudaram a conclusão: “personas in system prompts did not improve model performance across a range of questions compared to the control setting.”

É uma virada completa.

A Learn Prompting fez o próprio experimento. Eles testaram 12 personas diferentes em 2.000 questões MMLU usando o GPT-4-turbo. Os resultados foram incrivelmente consistentes entre as personas. A persona “idiot” superou a persona “genius”. Leia isso de novo.

Então… o que está acontecendo?

O problema da confiança

No Hacker News, o usuário GuB-42 fez um teste que captura bem o que muita gente sente:

“I did a short test prompting ChatGPT do be an ‘average developer, just smart enough not to get fired’, an ‘expert’ and no persona. I got 3 different answers but I couldn’t decide which one was the best.”

As respostas foram diferentes. O tom mudou. Mas a qualidade de verdade? Difícil dizer.

GuB-42 levantou uma preocupação mais profunda:

“I fear that but asking a LLM to be an expert, it will get the confidence of an expert rather than the skills of an experts, and a manipulative AI is something I’d rather not have.”

Isso importa. Quando você pede para a IA agir como especialista, ela não ganha expertise do nada. Ela ajusta o estilo para combinar com o que “parece texto de especialista” nos dados de treino. Linguagem mais confiante. Menos ressalvas. Mas o conhecimento por trás é o mesmo.

Um LLM com prompt de “professor de Harvard” não sabe mais do que um com prompt de “iniciante curioso”. Ele só soa mais autoritário.

Modelos mais novos mudaram o jogo

Aqui é onde fica interessante. Respondendo ao mesmo tópico no HN, o usuário bfeynman foi direto:

“This used to work but new thinking models made this unnecessary for the most part.”

Isso bate com o que praticantes estão notando. GPT-4o, Claude 3.5 Sonnet e modelos de raciocínio mais novos parecem precisar menos de prompts de papel do que os anteriores. A diferença entre “persona de especialista” e “sem persona” encolheu.

Por quê? Modelos modernos são melhores em inferir o que você precisa pelo contexto. Eles entendem a natureza da pergunta sem você ter que atribuir um papel explícito. Pergunte sobre código e eles respondem tecnicamente. Peça escrita criativa e eles mudam de registro automaticamente.

O prefixo “você é um especialista” talvez tenha sido um andaime útil para modelos menores e mais antigos. Para modelos de ponta em 2026, muitas vezes é só peso extra.

Onde papéis ainda ajudam

Isso não significa abandonar prompts de papel. Eles funcionam bem em situações específicas.

Tarefas criativas e abertas. Se você quer uma voz ou estilo específico, personas ajudam. “Escreva isso como um romance noir” dá um resultado diferente de um pedido genérico. O modelo tem padrões estilísticos para puxar.

Definir tom e registro. “Você é uma professora de jardim de infância, paciente” cria explicações diferentes de “você é um redator de documentação técnica”. Não porque um sabe mais, mas porque enquadram a informação de outro jeito.

Limitar escopo. Às vezes você quer que o modelo “fique no personagem” e não viaje. Uma persona de atendimento ao cliente pode desviar perguntas fora do tema de forma mais natural do que instruções explícitas.

Roleplay e simulação. Se você usa um LLM para praticar diálogos, se preparar para entrevistas ou escrever ficção interativa, personas são essenciais. É o objetivo.

O que papéis não fazem de forma confiável: deixar o modelo mais inteligente, mais preciso ou mais conhecedor de fatos aos quais ele não tinha acesso.

O problema da especificidade

A pesquisa de ExpertPrompting encontrou algo inesperado. Quando compararam “vanilla prompting” com “vanilla prompting + uma descrição estática de especialista”, os resultados foram quase idênticos. Papéis genéricos quase não acrescentaram nada.

Mas prompts de especialista detalhados, específicos para a tarefa, gerados por outro LLM, superaram os dois com folga.

O padrão: papéis vagos fazem pouco. Papéis detalhados, sob medida para a tarefa, podem ajudar. Personas geradas por LLM muitas vezes superaram as escritas por humanos.

Se você vai usar um papel, seja específico. “Você é um desenvolvedor Python especializado em pipelines de dados e tem opiniões fortes sobre tratamento de erros” é melhor do que “você é um especialista em código”. O modelo precisa de detalhe suficiente para saber quais padrões puxar.

Gênero e representação nos dados de treino

Tem mais uma camada. A Learn Prompting relata que, em certas tarefas, papéis masculinos muitas vezes superam papéis femininos. Papéis interpessoais não íntimos (amigo, supervisor) tiveram resultados melhores do que papéis ocupacionais em alguns contextos.

Isso não é sobre opinião do modelo. É reflexo de desequilíbrios nos dados de treino. Se “senior engineer” no corpus pende para certos grupos, a ideia do modelo sobre esse papel carrega esses padrões.

Vale ficar atento. Não muda sua estratégia de prompt do dia para a noite, mas é um lembrete de que essas técnicas batem em questões mais profundas sobre como modelos aprendem.

Um outro enquadramento: que saída você quer de verdade?

Role prompting sempre foi um atalho para outra coisa: dizer ao modelo que tipo de saída você quer.

“Aja como um especialista” muitas vezes significa “me dê respostas detalhadas e confiantes”. Mas você pode dizer isso diretamente. “Forneça uma explicação técnica detalhada com exemplos específicos” costuma funcionar melhor do que embrulhar o pedido numa persona.

“Você é um escritor criativo” significa “priorize uma prosa envolvente em vez de precisão seca”. Dá para especificar isso também.

A persona é um atalho. Às vezes útil. Às vezes não. O modelo não tem uma identidade para assumir. Ele tem padrões para combinar e probabilidades para amostrar. Entender isso muda como você pensa em prompting.

Quando você tira a metáfora do roleplay, sobra uma pergunta mais simples: quais características de saída você quer? Foque nelas. Seja direto. O modelo acompanha.

Algumas coisas que valem testar

Se você ainda quiser experimentar papéis, aqui vão abordagens que parecem promissoras:

Imersão em duas etapas. Em vez de um “você é X” estático, alguns pesquisadores tiveram sucesso com uma fase de aquecimento em que o modelo primeiro discute como seria ser esse especialista e só depois faz a tarefa. O paper de role-play prompting usou isso para sair de 53,5% para 63,8%. Mais trabalho, mas potencialmente mais eficaz.

Deixe o LLM gerar a persona. ExpertPrompting mostrou que descrições de especialistas geradas por LLM superaram as escritas por humanos. Se você precisa de uma persona, considere pedir para o modelo gerar primeiro o perfil ideal de especialista para sua tarefa.

Enquadramento por público. Em vez de “você é X”, tente “você está explicando isso para X”. A pesquisa sugere que enquadrar pelo público às vezes funciona melhor do que atribuir identidade. “Explique machine learning para uma criança curiosa de 10 anos” vs. “você é um professor. Explique machine learning”.

Pule isso em tarefas de acurácia. A evidência é bem clara: para perguntas factuais, papéis não ajudam e podem atrapalhar. Pergunte com clareza e dê bom contexto.

O que isso significa para o seu fluxo de trabalho

O frame “act as” nunca foi magia. Sempre foi só uma forma de comunicar preferências. Agora que modelos entendem melhor preferências ditas de forma direta, esse frame importa menos do que antes.

Na prática, você provavelmente ganha mais com:

  • ser específico sobre o que você quer
  • dar contexto relevante
  • mostrar exemplos de boa saída
  • descrever o formato que você precisa

Isso vence “você é um especialista” quase sempre.

Mas se você está fazendo trabalho criativo, construindo um chatbot com personalidade ou precisa de uma voz específica, papéis ainda fazem sentido. Só não são a técnica universal que muita gente vende.

A técnica funciona melhor quando você sabe por que está usando. Para moldar tom? Ótimo. Para acurácia factual? Procure outra coisa.

Qual técnica de prompting você encontrou que realmente muda o jogo? Isso talvez valha ser testado de forma mais sistemática do que qualquer atribuição de papel.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you