Tech · 6 min read

O ChatGPT Tentou Me Dizer o Que a WIRED Recomenda. Errou Tudo.

O ChatGPT indica produtos errados ao ser questionado sobre as escolhas da WIRED, com até 63% de imprecisões. Saiba por que a IA ainda não é confiável para decisões de compra.

O ChatGPT Tentou Me Dizer o Que a WIRED Recomenda. Errou Tudo.

Quando a IA faz o papel de crítico de tecnologia, ninguém sai ganhando

Aqui vai um experimento divertido: pergunte ao ChatGPT o que os críticos da WIRED recomendam como a melhor TV, os melhores headphones ou o melhor laptop. Vai lá, tente. Você vai receber uma resposta confiante, bem formatada e completamente errada. É o equivalente digital de pedir para alguém que nunca assistiu a um jogo de futebol para nomear o melhor time da Premier League e receber um argumento apaixonado a favor do Accrington Stanley.

Foi essencialmente o que o jornalista da WIRED, Reece Rogers, descobriu ao testar o chatbot da OpenAI. Os resultados não foram apenas um pouco imprecisos. Foram espetacularmente, quase impressionantemente errados.

O grande fiasco das TVs

Quando Rogers perguntou ao ChatGPT qual era a principal indicação de TV da WIRED, o chatbot supostamente apresentou a LG QNED Evo Mini-LED como a melhor escolha geral. Parece plausível, certo? Só há um pequeno problema: não é o que a WIRED recomenda. Quando pressionado, o ChatGPT aparentemente admitiu que a verdadeira escolha principal era o TCL QM6K, que ele havia silenciosamente trocado em favor da LG. Por quê? Sua suposição é tão boa quanto a minha, mas "inventar coisas com suprema confiança" parece mesmo ser a marca registrada da IA generativa.

AirPods que ninguém havia realmente avaliado

Fica ainda melhor. O ChatGPT também supostamente listou o AirPods Max 2 como a escolha de headphones da WIRED. A Apple anunciou o AirPods Max 2 em 16 de março de 2026, com disponibilidade a partir de 25 de março. No momento em que este artigo foi escrito, é totalmente plausível que o crítico de headphones da WIRED, Ryan Waniata, ainda não tivesse tido a oportunidade de testá-los adequadamente e adicioná-los ao guia de compras. Detalhe menor, esse. O ChatGPT aparentemente não deixou a ausência de uma avaliação real atrapalhar uma boa recomendação.

É um pouco como um crítico gastronômico endossar um prato que nunca provou. Claro, a descrição no cardápio soa bem, mas não é bem assim que as avaliações funcionam, é?

O laptop que o tempo esqueceu

Talvez o erro mais revelador tenha envolvido laptops. O ChatGPT supostamente continuou insistindo que a principal escolha da WIRED era o MacBook Air M4 de 2025. O MacBook Air M5 foi anunciado em 3 de março de 2026 e foi colocado à venda a partir de 11 de março. Quando essa conversa estava acontecendo, o M5 já estava disponível há semanas. O ChatGPT estava confiante ao recomendar o modelo do ano anterior como o favorito atual, o que é um pouco como recomendar o Windows 10 quando o Windows 11 já está disponível há tempos.

Os números pintam um quadro sombrio

Para que você não pense que isso é um incidente isolado, os dados sugerem o contrário. A própria OpenAI reconheceu que até 63% das menções a produtos nos resultados de busca do ChatGPT continham imprecisões. Deixe isso assimilar. Quase dois terços dos produtos que ele menciona vêm com erros. Você teria chances melhores jogando uma moeda para o alto.

Mesmo com os recursos de compras reformulados da OpenAI e um modelo de compras especializado, a precisão em consultas complexas chega a apenas cerca de 52%, em comparação com 37% para o ChatGPT Search padrão. Uma melhoria? Tecnicamente, sim. Tranquilizador? De forma alguma. Superar uma barra tão baixa não é exatamente motivo de comemoração.

Enquanto isso, uma pesquisa mais ampla descobriu que 64% dos consumidores encontraram desinformação gerada por IA sobre produtos ou serviços nos últimos seis meses. Um estudo da Universidade Estadual de Washington de março de 2026 deu à IA uma nota "D" em precisão e consistência. Se este fosse um boletim escolar, os pais seriam convocados.

A deliciosa ironia do acordo com a Conde Nast

É aqui que as coisas ficam propriamente absurdas. A Conde Nast, empresa-mãe da WIRED, assinou um acordo de licenciamento de vários anos com a OpenAI em agosto de 2024. O acordo abrange a WIRED, a GQ, a Vogue e outros títulos, permitindo que seus conteúdos apareçam nas respostas do ChatGPT com links adequados.

Portanto, a Conde Nast está pagando para que seu conteúdo apareça no ChatGPT, e o ChatGPT ainda assim está errando as recomendações. É como contratar um assistente pessoal que tem acesso a todos os seus arquivos, mas insiste em inventar as coisas mesmo assim. Você forneceu as respostas, e ele ainda está improvisando.

O problema da receita de afiliados que ninguém discute o suficiente

Além da precisão, há um problema mais insidioso em jogo. Quando o ChatGPT apresenta recomendações de produtos supostamente baseadas nas avaliações da WIRED, essas listagens não incluem os links de afiliados do publisher. Isso importa enormemente.

A receita de afiliados é uma tábua de salvação para o jornalismo de tecnologia. Quando você clica em uma avaliação para comprar um produto, a publicação recebe uma pequena comissão que ajuda a financiar os testes e o trabalho editorial em que você confiou. O ChatGPT ignora completamente todo esse sistema. Ele pega a credibilidade das avaliações especializadas, retira o mecanismo comercial que as financia e frequentemente erra as recomendações reais para completar. É um triplo golpe.

Cada vez mais pessoas estão recorrendo a chatbots de IA como parte de sua jornada de compras, com o ChatGPT respondendo pela grande maioria do tráfego de compras impulsionado por IA. Cada consulta respondida pelo ChatGPT é potencialmente uma visita que nunca chega ao site do publisher. O desvio de tráfego ainda pode ser pequeno em termos absolutos, mas a trajetória é clara, e isso deveria preocupar qualquer pessoa que valorize o jornalismo independente sobre produtos.

A virada embaraçosa da OpenAI

Tudo isso está dentro de um contexto mais amplo da OpenAI tentando, e na maior parte falhando, em penetrar no e-commerce. A empresa lançou um recurso de "Checkout Instantâneo" em setembro de 2025, que desde então foi reduzido devido a baixas taxas de conversão e, adivinhe, problemas de precisão. A OpenAI está agora reposicionando o ChatGPT como uma ferramenta de descoberta e pesquisa de produtos, em vez de uma plataforma de compra direta.

A versão mais recente, GPT-5.4, reivindica uma redução de 33% nas taxas de alucinação em comparação com o GPT-5.2. Progresso, certamente. Mas quando seu ponto de partida envolve errar mais vezes do que acertar, uma melhoria de 33% ainda o deixa em um território decididamente não confiável.

O que isso realmente significa para você

Se você está usando o ChatGPT para ajudar nas decisões de compra, trate suas recomendações com o mesmo ceticismo que daria à opinião de um desconhecido no ponto de ônibus. Ele pode estar certo. Pode estar confiantemente errado. Você simplesmente não consegue saber sem verificar.

A abordagem mais inteligente? Use a IA como ponto de partida, se necessário, mas sempre verifique na fonte real. Se o ChatGPT disser que a WIRED recomenda algo, vá à WIRED e confirme. Se ele citar uma avaliação específica, encontre essa avaliação. Os dez segundos de esforço extra podem poupá-lo de comprar um produto que nenhum especialista realmente recomendou.

O quadro geral

Esta não é realmente uma história sobre um chatbot errando algumas escolhas de produtos. É sobre uma tensão fundamental na forma como a IA interage com o conhecimento especializado. Esses sistemas absorvem conteúdo autoritativo, reembalam com graus variados de precisão e o apresentam como orientação confiável, enquanto minam o modelo econômico que produz esse conteúdo em primeiro lugar.

Até que a IA possa acertar consistentemente o básico, talvez a coisa mais honesta que o ChatGPT pudesse dizer quando questionado sobre recomendações de produtos fosse: "Não tenho certeza absoluta. Aqui está um link para pessoas que realmente testaram esses produtos." Mas isso, claro, exigiria o tipo de autoconsciência que permanece firmemente no reino da ficção científica.

Leia o artigo original em fonte.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.