O Que Você Vai Fazer
Neste tutorial, você vai simular 3 consumidores para testar se a cor ROXA é distintiva da marca Nubank. Isso é uma DEMONSTRAÇÃO — o suficiente para entender como funciona. Profissionalmente: 50-500 personas via automação. Tempo: 5-10 minutos. Custo: zero (usando Gemini gratuito).
Por Que Isso Funciona?
Large Language Models como Gemini, GPT-4 e Claude foram treinados em bilhões de documentos da internet — incluindo discussões sobre marcas, produtos, cultura de consumo. Eles "sabem" que Nubank é roxo, que McDonald's tem arcos dourados, que Coca-Cola é vermelha.
Quando você pede para o LLM assumir a perspectiva de um consumidor específico (idade, renda, região, comportamento), ele pode replicar como essa pessoa responderia a perguntas sobre marcas.
Validação científica: Stanford, MIT e Evidenza.ai confirmam 85-95% de correlação vs. painéis humanos reais.
Ferramentas Necessárias
URL: gemini.google.com
Por quê? Gemini 2.0 Flash é gratuito, rápido e permite conversas longas. Perfeito para testes iniciais.
Alternativas: ChatGPT (GPT-4o), Claude Projects, Perplexity
Por quê? Para organizar respostas e calcular % de menção espontânea.
Caso de Uso: Testar Distintividade de Cor
Pergunta de pesquisa: A cor ROXA é distintiva da marca Nubank?
Método simplificado: Criar 3 personas sintéticas (perfis diferentes) e perguntar: "Quando você vê a cor ROXA em contexto de marca/empresa, qual marca vem à sua mente primeiro?"
⚠️ IMPORTANTE: Este é um exemplo para você entender como funciona. Não é pesquisa cientificamente válida (N=3 é muito pequeno). Para uso real:
- N=20+ para ter noção inicial
- N=50-100+ para validação
- N=500+ para pesquisa profissional (via automação/API)
Passo a Passo
PASSO 1 — Abra o Gemini
Acesse gemini.google.com e faça login com sua conta Google.
PASSO 2 — Cole o Prompt de Persona
Copie e cole o prompt abaixo. Ele cria a primeira persona sintética:
Exemplo de Resposta do Gemini
João (28, SP, R$4.500): "Nubank. É a primeira coisa que vem na cabeça quando vejo roxo."
PASSO 3 — Repita com Mais 2 Personas
Para esta demonstração, vamos criar apenas 3 personas totais. Mude idade, renda, região:
Persona 2 — Maria (classe C, conservadora):
Persona 3 — Carlos (classe B, tech-savvy):
Dica: Abra 3 conversas separadas no Gemini (New Chat para cada) para evitar que as respostas influenciem umas às outras.
PASSO 4 — Registre as Respostas
Cole as respostas em uma planilha:
| Persona | Idade | Renda | Resposta | Citou Nubank? |
|---|---|---|---|---|
| João | 28 | R$4.500 | "Nubank. É a primeira..." | SIM |
| Maria | 42 | R$2.800 | "Nubank ou Milka..." | SIM |
| Carlos | 35 | R$8.000 | "FedEx talvez..." | NÃO |
PASSO 5 — Observe o Padrão
Com 3 personas, você não tem estatística válida — mas já consegue ver como funciona:
- Se 3 de 3 citaram Nubank: Cor provavelmente é distintiva (mas precisa validar com N maior)
- Se 2 de 3 citaram: Distintividade moderada (pode ter concorrência)
- Se 1 ou 0 citaram: Cor não é distintiva (ou suas personas não representam o público)
⚠️ LEMBRE-SE: Isso é uma demonstração. Para decisões reais, use N=50+ (manualmente) ou N=500+ (via automação).
E Profissionalmente, Como Funciona?
O que você acabou de fazer manualmente (3 personas, 10 minutos) é multiplicado por 100-500x via automação:
Opção 1: Manual Escalado (20-50 personas)
Quando: Você quer validar melhor, mas ainda manualmente
Tempo: 1-2 horas
Custo: Zero (Gemini gratuito)
Resultado: Statistically significativo o suficiente para decisões iniciais
Opção 2: Automação via API (100-500+ personas)
Quando: Você quer rigor científico ou escala (brand tracking trimestral, múltiplas categorias)
Tempo: 5-10 minutos (processamento paralelo)
Custo: $5-50 (dependendo do LLM: Gemini Flash = $0.075, GPT-4o = $2.50)
Como: Programação (Python + API) ou ferramentas no-code (em breve)
Resultado: 85-95% correlation vs. painéis humanos (validado cientificamente)
Quanto Mais Agentes, Melhor?
Sim, mas com limites práticos:
- N=3: Demonstração, entender como funciona
- N=20-50: Screening inicial, identificar padrões
- N=100-200: Validação científica, correlation >0.80 esperada
- N=500+: Pesquisa profissional, substituir painéis tradicionais
Além de N=500: Retorno diminui. Melhor investir em validação com humanos reais.
Como Interpretar Resultados (Quando N ≥ 50)
- >70%: Cor é distintiva. Ownership forte. Proteger como ativo estratégico.
- 50-70%: Distintividade moderada. Considerar reforço em comunicação.
- <50%: Cor não é distintiva. Evitar como único código de reconhecimento.
Validação: Compare com Dados Reais
Se você tiver acesso a pesquisa tradicional (painel humano) sobre o mesmo tema, compare:
- Correlation: As duas distribuições são similares?
- Top-of-mind: A marca mais citada é a mesma nos dois métodos?
- Gap: Se houver diferença >15%, investigue por quê (viés demográfico? prompts mal estruturados?).
✅ Checklist de Qualidade
Para usar synthetic research profissionalmente (não apenas demonstrar):
- ✅ N mínimo de 50 personas (100+ ideal para rigor científico)
- ✅ Variação demográfica (idade, renda, região, gênero, ocupação)
- ✅ Contextos isolados (1 persona por conversa, sem bleeding)
- ✅ Perguntas abertas primeiro ("Que marca vem à mente?") → depois fechadas se necessário
- ✅ Registrar respostas textuais completas (não resumir)
- ✅ Calcular % de menção espontânea, não forçar categorias
- ✅ Validar com painel humano pequeno (N=20-30) para comparar correlation
Lembre-se: N=3 é demonstração. N=20 é screening. N=50+ é validação. N=500+ é profissional.
Casos de Uso Adicionais
1. Testar Mental Availability (CEPs)
Pergunta: "Pense nas últimas 3 vezes que você comprou [categoria]. Que situação levou você a comprar?"
Análise: Cluster respostas em temas comuns (ex: "manhã corrida", "celebração", "presente"). Ranquear por frequência.
2. Validar Mensagens de Campanha
Setup: Mostrar 2 versões de tagline para N=50 personas. "Qual das duas frases te convence mais a experimentar o produto?"
Análise: Calcular % preferência + analisar justificativas qualitativas.
3. Gap Analysis (Percepção vs. Intenção)
Pergunta: "Descreva a marca [X] em 3 palavras."
Análise: Compare palavras mais citadas com atributos que a marca QUER comunicar. Identifique gaps.
Limitações e Quando NÃO Usar
Synthetic research manual funciona bem para:
- Screening inicial (testar hipóteses antes de investir em painel humano)
- Categorias mainstream (bancos, alimentos, tech, varejo)
- Questões qualitativas ou exploratórias
NÃO use para:
- Decisões high-stakes sem validação humana (lançamento de produto, rebranding)
- Nichos ultra-específicos (LLMs podem "alucinar" comportamentos sem training data)
- Tópicos sensíveis (saúde, política, religião) — vieses éticos do LLM podem distorcer
Próximos Passos
Agora que você fez sua primeira pesquisa sintética manual, considere:
- Automatizar: Use API do Gemini ou GPT-4o para gerar 100+ personas automaticamente
- Validar: Rode um painel humano pequeno (N=50) para comparar resultados
- Escalar: Construa um MVP com interface web (ver LAB-001 para blueprint técnico)
Conclusão
Você acabou de ver como synthetic research funciona — na prática. Com apenas 3 personas e 10 minutos, conseguiu simular o básico de um painel de consumidores.
Isso não substitui pesquisa real (N=3 é muito pequeno). Mas agora você entende o método. E sabe que, profissionalmente, isso escala para 100-500 personas via automação, com 85-95% de precisão vs. humanos.
A pergunta não é "isso funciona?" (funciona, validado por Stanford/MIT/Evidenza). A pergunta é: você vai explorar mais? Testar com 20 personas? Automatizar com API? Ou validar com humanos?