Tech · 6 min lezen

ChatGPT probeerde me te vertellen wat WIRED aanbeveelt. Het zat er volledig naast.

ChatGPT geeft zelfverzekerd onjuiste productaanbevelingen uit naam van WIRED. Ontdek waarom AI-shoppingadvies vaak onbetrouwbaar is en wat dit betekent voor jou.

ChatGPT probeerde me te vertellen wat WIRED aanbeveelt. Het zat er volledig naast.

Wanneer AI voor tech-recensent speelt, wint er niemand

Hier is een leuk experiment: vraag ChatGPT wat de recensenten van WIRED aanbevelen als de beste tv, hoofdtelefoon of laptop. Ga je gang, probeer het maar. Je krijgt een zelfverzekerd, goed geformuleerd en volkomen foutief antwoord. Het is het digitale equivalent van iemand die nog nooit voetbal heeft gekeken vragen om de beste club uit de Premier League te noemen en een gepassioneerd betoog voor Accrington Stanley te krijgen.

Dat is in essentie wat WIRED-journalist Reece Rogers ontdekte toen hij de chatbot van OpenAI aan de tand voelde. De resultaten waren niet slechts een beetje ernaast. Ze waren spectaculair, bijna indrukwekkend onnauwkeurig.

Het grote tv-debacle

Toen Rogers aan ChatGPT vroeg naar de beste tv-keuze van WIRED, kwam de chatbot naar verluidt met de LG QNED Evo Mini-LED als de beste algemene keuze. Klinkt aannemelijk, toch? Er is alleen één klein probleem: dat is niet wat WIRED aanbeveelt. Toen ChatGPT werd doorgevraagd, gaf het blijkbaar toe dat de werkelijke topkeuze de TCL QM6K was, die het stilletjes had ingewisseld voor de LG. Waarom? Je raad is net zo goed als de mijne, maar "dingen verzinnen met opperste zelfverzekerdheid" lijkt toch echt de kenmerkende zet van generatieve AI te zijn.

AirPods die niemand echt had getest

Het wordt nog mooier. ChatGPT noemde naar verluidt ook de AirPods Max 2 als de hoofdtelefoonkeuze van WIRED. Apple kondigde de AirPods Max 2 aan op 16 maart 2026, met beschikbaarheid vanaf 25 maart. Op het moment van schrijven is het volkomen aannemelijk dat Ryan Waniata, de hoofdtelefoonrecensent van WIRED, nog niet de kans had gehad om ze grondig te testen en toe te voegen aan de koopgids. Een klein detail, dat. ChatGPT liet zich door het ontbreken van een echte recensie blijkbaar niet tegenhouden om toch een aanbeveling te doen.

Dit is een beetje als een restaurantrecensent die een gerecht aanprijst dat hij nog nooit heeft geproefd. Natuurlijk klinkt de beschrijving op de kaart heerlijk, maar zo werken recensies natuurlijk niet, toch?

De laptop die de tijd vergat

De meest veelzeggende blunder had wellicht betrekking op laptops. ChatGPT bleef naar verluidt volhouden dat de topkeuze van WIRED de MacBook Air M4 uit 2025 was. De MacBook Air M5 werd aangekondigd op 3 maart 2026 en ging op 11 maart in de verkoop. Tegen de tijd dat dit gesprek plaatsvond, was de M5 al weken uit. ChatGPT beval vol zelfvertrouwen het model van vorig jaar aan als de huidige favoriet, wat een beetje is als Windows 10 aanbevelen terwijl Windows 11 al eeuwen beschikbaar is.

De cijfers schetsen een grimmig beeld

Om te voorkomen dat je denkt dat dit een incident is: de data wijst op iets anders. OpenAI erkende zelf dat tot 63% van de productvermeldingen in zoekresultaten van ChatGPT onjuistheden bevatten. Laat dat even bezinken. Bijna tweederde van de producten die het noemt, bevat fouten. Je zou betere kansen hebben als je een muntje opgooit.

Zelfs met de vernieuwde winkel-functies van OpenAI en een gespecialiseerd winkelmodel, bereikt de nauwkeurigheid bij complexe vragen slechts ongeveer 52%, vergeleken met 37% voor standaard ChatGPT Search. Een verbetering? Technisch gezien wel. Geruststellend? Absoluut niet. De lat zo laag leggen is niet echt een reden voor een feestje.

Ondertussen bleek uit een breder onderzoek dat 64% van de consumenten de afgelopen zes maanden door AI gegenereerde desinformatie over producten of diensten is tegengekomen. Een onderzoek van de Washington State University uit maart 2026 gaf AI een 'D' voor nauwkeurigheid en consistentie. Als dit een rapportcijfer op school was, zouden de ouders worden opgeroepen.

De heerlijke ironie van de Conde Nast deal

Hier wordt het pas echt absurd. Conde Nast, het moederbedrijf van WIRED, tekende in augustus 2024 een meerjarige licentiedeal met OpenAI. De overeenkomst beslaat WIRED, GQ, Vogue en andere titels, waardoor hun inhoud met de juiste links in ChatGPT-antwoorden kan verschijnen.

Dus Conde Nast betaalt om zijn inhoud in ChatGPT te laten verschijnen, en ChatGPT krijgt de aanbevelingen nog steeds fout. Het is alsof je een persoonlijke assistent inhuurt die toegang heeft tot al je bestanden, maar er toch op staat om dingen te verzinnen. Je hebt ze de antwoorden gegeven en ze gokken er nog steeds maar op los.

Het probleem met affiliate-inkomsten waar niemand genoeg over praat

Naast nauwkeurigheid speelt er een verraderlijker probleem. Wanneer ChatGPT productaanbevelingen presenteert die zogenaamd gebaseerd zijn op de recensies van WIRED, bevatten die lijsten niet de affiliate-links van de uitgever. Dit is enorm belangrijk.

Affiliate-inkomsten zijn een reddingslijn voor techjournalistiek. Wanneer je vanuit een recensie doorklikt om een product te kopen, verdient de publicatie een kleine commissie die helpt bij het financieren van het test- en redactiewerk waar je op vertrouwde. ChatGPT omzeilt dit hele systeem netjes. Het neemt de geloofwaardigheid van deskundige recensies, stript het commerciële mechanisme dat ze financiert eruit en krijgt voor de zekerheid de eigenlijke aanbevelingen ook nog eens fout. Het is een driedubbele klap.

Meer mensen wenden zich tot AI-chatbots als onderdeel van hun winkelreis, waarbij ChatGPT het overgrote deel van het AI-gestuurde winkelverkeer voor zijn rekening neemt. Elke vraag die door ChatGPT wordt beantwoord, is potentieel een bezoek dat nooit de website van de uitgever bereikt. De verkeersomleiding is in absolute termen misschien nog klein, maar het traject is duidelijk en het zou iedereen moeten verontrusten die waarde hecht aan onafhankelijke productjournalistiek.

De ongemakkelijke draai van OpenAI

Dit alles past in een bredere context waarin OpenAI probeert, en grotendeels worstelt, om door te breken in e-commerce. Het bedrijf lanceerde in september 2025 een 'Instant Checkout'-functie, die sindsdien is teruggeschroefd vanwege lage conversiepercentages en, je raadt het al, nauwkeurigheidsproblemen. OpenAI positioneert ChatGPT nu meer als een tool voor productontdekking en onderzoek in plaats van als een direct aankoopplatform.

De nieuwste versie, GPT-5.4, claimt een vermindering van 33% in hallucinatiepercentages in vergelijking met GPT-5.2. Vooruitgang, zeker. Maar wanneer je startpunt inhoudt dat je vaker dingen fout doet dan goed, laat een verbetering van 33% je nog steeds in onbetrouwbaar vaarwater.

Wat dit echt voor jou betekent

Als je ChatGPT gebruikt om te helpen bij aankoopbeslissingen, behandel de aanbevelingen dan met dezelfde scepsis als de mening van een vreemde bij de bushalte. Ze kunnen gelijk hebben. Ze kunnen vol zelfvertrouwen ongelijk hebben. Je kunt het simpelweg niet weten zonder het te controleren.

De slimmere aanpak? Gebruik AI als startpunt als het moet, maar verifieer altijd bij de werkelijke bron. Als ChatGPT zegt dat WIRED iets aanbeveelt, ga dan naar WIRED en controleer het. Als het een specifieke recensie citeert, zoek die recensie op. De tien seconden extra moeite kunnen je behoeden voor het kopen van een product dat geen enkele expert daadwerkelijk heeft aanbevolen.

Het grotere plaatje

Dit is niet echt een verhaal over één chatbot die een paar productkeuzes fout heeft. Het gaat om een fundamentele spanning in hoe AI omgaat met deskundige kennis. Deze systemen zuigen gezaghebbende inhoud op, verpakken deze opnieuw met wisselende mate van nauwkeurigheid en presenteren het als betrouwbare begeleiding, terwijl ze ondertussen het economische model ondermijnen dat die inhoud in de eerste plaats produceert.

Totdat AI consequent de basis goed kan krijgen, is het misschien wel het eerlijkste wat ChatGPT kan zeggen als er om productaanbevelingen wordt gevraagd: "Ik weet het niet helemaal zeker. Hier is een link naar mensen die deze producten daadwerkelijk hebben getest." Maar dat zou natuurlijk het soort zelfbewustzijn vereisen dat stevig in het rijk der sciencefiction blijft.

Lees het originele artikel op bron.

D
Geschreven door

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.