Alguns usuários do ChatGPT notaram um fenômeno estranho recentemente; ocasionalmente, o chatbot se refere a eles pelo nome enquanto raciocina sobre problemas.
Esse não era o comportamento padrão anteriormente, e vários usuários afirmam que o ChatGPT está mencionando seus nomes apesar de nunca terem informado como gostariam de ser chamados.
Reações divididas
As opiniões estão divididas. Um usuário, o desenvolvedor de software e entusiasta de IA Simon Willison, chamou o recurso de “assustador e desnecessário”. Outro desenvolvedor, Nick Dobos, disse que “odiou”. Uma rápida pesquisa no X (antigoTwitter) revela dezenas de usuários confusos e cautelosos com o comportamento do ChatGPT de tratar as pessoas pelo primeiro nome.
“É como se um professor ficasse chamando meu nome, LOL”, escreveu um usuário. “Sim, eu não gosto disso.” Simon Willison chegou a fazer uma enquete perguntando: “Alguém GOSTA dessa coisa em que o o3 usa seu nome em sua cadeia de pensamento, em vez de achar isso assustador e desnecessário?”
Does anyone LIKE the thing where o3 uses your name in its chain of thought, as opposed to finding it creepy and unnecessary? pic.twitter.com/lYRby6BK6J
— Simon Willison (@simonw) April 17, 2025
Origem da mudança
Não está claro exatamente quando a mudança aconteceu, ou se está relacionada ao recurso atualizado de “memória” do ChatGPT, que permite ao chatbot usar conversas anteriores para personalizar suas respostas.
Alguns usuários no X dizem que o ChatGPT começou a chamá-los pelos seus nomes mesmo tendo desativado a memória e configurações relacionadas à personalização. Um usuário chamado Debasish Pattanayak comentou: “É estranho ver seu próprio nome nos pensamentos do modelo.
Existe alguma razão para adicionar isso? Isso o tornará melhor ou apenas causará mais erros, como eu fiz em meus repositórios do GitHub?”
Implicações para o mercado brasileiro
Para empresas brasileiras que utilizam o ChatGPT ou tecnologias similares em seus atendimentos ao cliente, esta controvérsia levanta questões importantes sobre conformidade regulatória.
A Autoridade Nacional de Proteção de Dados (ANPD) já sinalizou que está atenta às práticas de empresas de IA no país.
“As empresas precisam estar cientes de que personalização excessiva sem consentimento explícito pode gerar não apenas rejeição dos consumidores, mas também problemas legais”, alerta Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio).
No setor financeiro brasileiro, onde chatbots são amplamente utilizados para atendimento, instituições como Nubank e Itaú têm adotado abordagens maiscautelosas, solicitando explicitamente como o cliente gostaria de ser chamado antes de utilizar seu nome nas interações.
O vale da estranheza
A reação negativa ilustra o “vale da estranheza” que a OpenAI pode ter dificuldade em superar em seus esforços para tornar o ChatGPT mais “pessoal” para as pessoas que o utilizam.
Na semana passada, o CEO da empresa, Sam Altman, sugeriu sistemas de IA que “conhecem você ao longo da sua vida” para se tornarem “extremamente úteis e personalizados”. Mas, a julgar por esta última onda de reações, nem todos estão convencidos da ideia.
Um artigo publicado pela Valens Clinic, um consultório de psiquiatria em Dubai, pode esclarecer as reações viscerais ao uso de nomes pelo ChatGPT. Nomes transmitem intimidade. Mas quando uma pessoa — ou chatbot, neste caso — usa muito um nome, isso parece inautêntico. “Usar o nome de um indivíduo ao se dirigir diretamente a ele é uma poderosa estratégia de desenvolvimento de relacionamento”, escreve a Valens.
“Denota aceitação e admiração. No entanto, o uso indesejável ou extravagante pode ser visto como falso e invasivo.”
Aspectos culturais brasileiros
A questão também toca em aspectos culturais específicos do Brasil. Diferentemente de culturas mais formais, os brasileiros tendem a adotar um tratamento mais pessoal e informal rapidamente, inclusive em ambientes profissionais.
No entanto, essa informalidade geralmente ocorre após um consentimento social implícito.
“No Brasil, temos uma cultura de proximidade e cordialidade, mas isso não significa que dispensamos o consentimento. Pelo contrário, valorizamos muito quando nos perguntam como preferimos ser tratados”, explica a antropóloga Lilia Schwarcz, professora da USP.
“Quando uma máquina assume essa intimidade sem permissão, isso pode soar ainda mais invasivo para o brasileiro médio.”
Antropomorfização forçada
De maneira semelhante, talvez outro motivo pelo qual muitas pessoas não queiram que o ChatGPT use seu nome é que isso parece forçado — uma tentativa desajeitada de antropomorfizar um bot sem emoções.
Da mesma forma que a maioria das pessoas não gostaria que sua torradeira as chamasse pelo nome, elas não querem que o ChatGPT “finja” entender o significado de um nome.
Esta situação levanta questões importantes sobre os limites da personalização em sistemas de IA. Enquanto as empresas de tecnologia buscam criar experiências cada vez mais personalizadas, precisam estar atentas às reações dos usuários e ao que é percebido como apropriado versus invasivo.
A linha entre conveniência e desconforto pode ser tênue, e o caso do ChatGPT chamando usuários pelo nome sem permissão explícita demonstra como até mesmo mudanças aparentemente pequenas podem gerar reações negativas significativas.
Para a OpenAI e outras empresas de IA, o desafio será encontrar o equilíbrio certo entre personalização e respeito pelos limites dos usuários — uma tarefa que, como esta controvérsia demonstra, pode ser mais complexa do que parece inicialmente, especialmente em mercados culturalmente diversos como o Brasil.
- Se você curtiu esse conteúdo e quer ficar por dentro de todas as novidades tecnológicas, não deixe de conferir nossa seção de reviews de produtos. tem muita coisa legal por lá!
- Confira também as últimas notícias do mundo aqui!
Com informações de TechCrunch