+

blog red

red blog

30.OUT.2025

GPT não substituirá ninguém

GPT não substituirá ninguém

Pode soar reconfortante. E talvez seja mesmo. Mas minha intenção aqui é outra: contrariar a fantasia cada vez mais comum de que os modelos de linguagem, como GPT, Claude ou Gemini, vão em breve tomar todas as decisões estratégicas das empresas. Não vão. Pelo menos não da forma como muitos imaginam. 

Se você ouvir os principais CEOs por trás desses modelos, Sam Altman, Dario Amodei e companhia, a impressão é de que estamos a poucos passos de uma inteligência artificial geral, capaz de pensar, planejar e decidir melhor que qualquer humano. Mas há um detalhe incômodo no meio disso tudo: mesmo os modelos mais avançados ainda operam em uma camada muito superficial da tomada de decisão. Eles são rápidos. São articulados. Mas não entendem o que causou o quê.

A confusão é fácil de entender. O hype em torno dos LLMs vende a ideia de que esses modelos podem fazer tudo: escrever o conteúdo certo, prever o comportamento do cliente, montar campanhas e planejar a próxima jogada. Eles seriam, segundo essa lógica, oráculos da tecnologia. Mas na prática, o que temos são modelos que, como qualquer outro modelo estatístico preditivo, se baseiam em padrões observados no passado para estimar o que provavelmente virá pela frente. Eles funcionam se nada mudar. Mas não dizem o que vai acontecer se algo mudar.

E é justamente aí que mora o perigo.

Imagine que você quer entender o número de afogamentos em uma praia. Alguém do seu time encontra uma correlação forte: quanto mais sorvetes são vendidos, mais afogamentos acontecem. E os dados confirmam. Só que qualquer pessoa com bom senso sabe que não é o sorvete que está causando os afogamentos. O que está acontecendo é outra coisa: dias de sol atraem mais pessoas para a praia, e isso aumenta tanto as vendas de sorvete quanto os afogamentos. A relação entre sorvete e afogamento é espúria. E sem entender a causa, qualquer modelo, por mais avançado que pareça, pode cair nessa armadilha.

No meu texto anterior, falei sobre como o ROAS tradicional, aquele baseado em last click, cria uma ilusão de retorno mágico, ignorando o que teria acontecido mesmo sem campanha. O erro é o mesmo: confundir correlação com efeito real. Se você usar uma LLM para analisar os dados, ela fará exatamente isso. Notará que quando tem sorvete, tem afogamento. E concluirá que a melhor política pública é proibir Kibon.

A verdadeira revolução no uso de modelos está em sair do mundo das correlações e entrar no mundo das intervenções. Em vez de perguntar “o que vai acontecer?”, começamos a perguntar “o que acontece se eu mudar algo?”. Essa é a pergunta que interessa para quem toma decisões. E para respondê-la, existe uma ciência: a inferência causal.

Inferência causal é, na minha opinião, a área mais negligenciada da ciência de dados. E talvez a mais poderosa. É ela que permite isolar efeitos, construir contrafactuais e entender o verdadeiro impacto de uma ação, seja uma campanha, uma mudança de preço ou uma nova jornada de onboarding.

E é por isso que volto ao ponto inicial. GPT não substituirá ninguém. Ele vai gerar ideias mais rápido, escrever textos mais bonitos, simular cenários com mais fluidez. Mas, em um mundo inundado por sugestões, entender quais dessas ideias realmente funcionam se tornará ainda mais essencial. E quem souber fazer isso, com teste, com contrafactual, com inferência causal, terá uma vantagem descomunal.

O futuro não pertence a quem gera mais outputs. Pertence a quem consegue provar que um desses outputs fez a diferença.

Veja também

+AGENDE UMA CONVERSA
×

Solicitar orçamento


×

Trabalhe conosco

Anexar currículo pdf

×

AGENDE UMA CONVERSA