ChatGPT hat mir erzählt, was WIRED empfiehlt. Es lag bei allem falsch.
ChatGPT empfiehlt mit voller Überzeugung falsche Produkte, wenn man nach WIRED-Tipps fragt. Was das über KI-Shopping-Beratung aussagt und warum du aufpassen solltest.
Wenn KI den Technik-Redakteur spielt, verliert jeder
Hier ist ein unterhaltsames Experiment: Frag ChatGPT, was WIREDs Redakteure als besten Fernseher, die besten Kopfhörer oder den besten Laptop empfehlen. Nur zu, versuch es. Du bekommst eine selbstbewusste, gut formatierte und völlig falsche Antwort. Das ist das digitale Äquivalent dazu, jemanden, der noch nie Fussball geschaut hat, nach dem besten Bundesliga-Verein zu fragen und dann eine leidenschaftliche Plädoyer für den SC Paderborn zu erhalten.
Genau das entdeckte WIRED-Journalist Reece Rogers, als er den Chatbot von OpenAI auf die Probe stellte. Die Ergebnisse waren nicht nur leicht daneben. Sie waren spektakulär, fast schon beeindruckend ungenau.
Das grosse Fernseher-Debakel
Als Rogers ChatGPT nach WIREDs Top-Fernseher fragte, servierte der Chatbot angeblich den LG QNED Evo Mini-LED als beste Gesamtwahl. Klingt plausibel genug, oder? Es gibt nur ein kleines Problem: Das ist nicht das, was WIRED empfiehlt. Unter Druck gab ChatGPT angeblich zu, dass der eigentliche Spitzenreiter der TCL QM6K sei, den es stillschweigend zugunsten des LG ausgetauscht hatte. Warum? Das weiss ich auch nicht, aber "Dinge mit höchster Überzeugung erfinden" scheint tatsächlich der Markenzeichen generativer KI zu sein.
AirPods, die niemand tatsächlich getestet hatte
Es wird noch besser. ChatGPT soll auch die AirPods Max 2 als WIREDs Kopfhörer-Empfehlung aufgeführt haben. Apple kündigte die AirPods Max 2 am 16. März 2026 an, mit Verfügbarkeit ab dem 25. März. Zum Zeitpunkt der Abfrage war es durchaus möglich, dass WIREDs Kopfhörer-Redakteur Ryan Waniata noch keine Gelegenheit hatte, sie ordentlich zu testen und in den Kaufratgeber aufzunehmen. Eine kleine Nebensächlichkeit. ChatGPT liess sich offenbar nicht davon abbringen, eine Empfehlung auszusprechen, auch ohne eine tatsächliche Rezension.
Das ist ein bisschen so, als würde ein Restaurantkritiker ein Gericht empfehlen, das er noch nie probiert hat. Sicher, die Menübeschreibung klingt verlockend, aber so funktionieren Rezensionen nun mal nicht, oder?
Der Laptop, den die Zeit vergessen hat
Vielleicht der aufschlussreichste Fehler betraf Laptops. ChatGPT bestand angeblich darauf, dass WIREDs Topempfehlung das MacBook Air M4 von 2025 sei. Das MacBook Air M5 wurde am 3. März 2026 angekündigt und kam ab dem 11. März in den Handel. Als dieses Gespräch stattfand, war das M5 bereits seit Wochen erhältlich. ChatGPT empfahl selbstbewusst das Modell des Vorjahres als aktuellen Favoriten, was ungefähr so ist, als würde man Windows 10 empfehlen, obwohl Windows 11 längst draussen ist.
Die Zahlen zeichnen ein düsteres Bild
Falls du glaubst, das sei ein Einzelfall, legt die Datenlage das Gegenteil nahe. OpenAI selbst räumte ein, dass bis zu 63 % der Produktnennungen in ChatGPT-Suchergebnissen Ungenauigkeiten enthielten. Lass das kurz sacken. Bei fast zwei Dritteln der genannten Produkte stimmt etwas nicht. Da würde man mit einer Münze besser abschneiden.
Selbst mit OpenAIs überarbeiteten Shopping-Funktionen und einem spezialisierten Shopping-Modell erreicht die Genauigkeit bei komplexen Anfragen nur rund 52 %, verglichen mit 37 % bei der Standard-ChatGPT-Suche. Eine Verbesserung? Technisch gesehen, ja. Beruhigend? Absolut nicht. Eine so niedrige Messlatte zu überwinden ist kein Grund zum Feiern.
Darüber hinaus ergab eine breitere Umfrage, dass 64 % der Verbraucher in den vergangenen sechs Monaten auf KI-generierte Fehlinformationen zu Produkten oder Dienstleistungen gestossen sind. Eine Studie der Washington State University vom März 2026 gab der KI die Note "Ausreichend minus" für Genauigkeit und Konsistenz. Wenn das ein Schulzeugnis wäre, würden die Eltern einbestellt.
Die köstliche Ironie des Conde-Nast-Deals
Hier wird es richtig absurd. Conde Nast, WIREDs Muttergesellschaft, unterzeichnete im August 2024 einen mehrjährigen Lizenzvertrag mit OpenAI. Die Vereinbarung umfasst WIRED, GQ, Vogue und andere Titel und erlaubt es, deren Inhalte mit entsprechenden Links in ChatGPT-Antworten erscheinen zu lassen.
Conde Nast bezahlt also dafür, dass seine Inhalte in ChatGPT auftauchen, und ChatGPT liegt mit den Empfehlungen trotzdem daneben. Das ist so, als würde man eine persönliche Assistenz einstellen, die Zugang zu allen eigenen Unterlagen hat, aber trotzdem lieber Dinge erfindet. Du hast ihr die Antworten gegeben, und sie improviert trotzdem.
Das Affiliate-Umsatz-Problem, über das niemand genug spricht
Neben der Genauigkeit gibt es ein noch heimtückischeres Problem. Wenn ChatGPT Produktempfehlungen präsentiert, die angeblich auf WIREDs Rezensionen basieren, enthalten diese Listings keine Affiliate-Links des Verlags. Das ist von enormer Bedeutung.
Affiliate-Einnahmen sind eine Lebensader für den Technikjournalismus. Wenn man über eine Rezension zu einem Produkt klickt und es kauft, verdient die Publikation eine kleine Provision, die genau die Tests und die redaktionelle Arbeit finanziert, auf die man sich verlässt. ChatGPT umgeht dieses gesamte System auf elegante Weise. Es nutzt die Glaubwürdigkeit von Expertenrezensionen, entfernt den kommerziellen Mechanismus, der sie finanziert, und liegt bei den eigentlichen Empfehlungen häufig noch falsch. Ein dreifacher Schlag.
Immer mehr Menschen nutzen KI-Chatbots als Teil ihrer Einkaufsrecherche, wobei ChatGPT den weitaus grössten Teil des KI-gesteuerten Shopping-Traffics ausmacht. Jede Anfrage, die ChatGPT beantwortet, ist potenziell ein Besuch, der die Website des Verlags nie erreicht. Die Traffic-Umleitung mag in absoluten Zahlen noch gering sein, aber die Richtung ist eindeutig und sollte jeden besorgen, dem unabhängiger Produktjournalismus wichtig ist.
OpenAIs peinlicher Kurswechsel
Das alles steht im breiteren Kontext von OpenAIs Bemühen, den E-Commerce zu erschliessen, was bislang weitgehend erfolglos geblieben ist. Das Unternehmen lancierte im September 2025 eine "Instant Checkout"-Funktion, die inzwischen aufgrund niedriger Konversionsraten und, man ahnt es, Genauigkeitsproblemen zurückgeschraubt wurde. OpenAI positioniert ChatGPT nun eher als Produkt-Entdeckungs- und Recherchewerkzeug denn als direkte Kaufplattform.
Die neueste Version, GPT-5.4, behauptet eine 33-prozentige Reduzierung der Halluzinationsrate im Vergleich zu GPT-5.2. Fortschritt, sicherlich. Aber wenn der Ausgangspunkt darin besteht, öfter falsch als richtig zu liegen, lässt einen eine Verbesserung um 33 % immer noch in ausgesprochen unzuverlässigem Terrain zurück.
Was das konkret für dich bedeutet
Wenn du ChatGPT für Kaufentscheidungen nutzt, begegne seinen Empfehlungen mit derselben Skepsis, die du der Meinung eines Fremden an der Bushaltestelle entgegenbringen würdest. Er könnte recht haben. Er könnte mit Überzeugung falsch liegen. Ohne Nachprüfen lässt sich das einfach nicht sagen.
Der klügere Ansatz? Nutze KI allenfalls als Ausgangspunkt, überprüfe aber immer anhand der tatsächlichen Quelle. Wenn ChatGPT sagt, WIRED empfiehlt etwas, geh zu WIRED und schau nach. Wenn es eine bestimmte Rezension zitiert, such diese Rezension. Die zehn Sekunden zusätzlichen Aufwands können dich davor bewahren, ein Produkt zu kaufen, das kein Experte tatsächlich empfohlen hat.
Das grössere Bild
Das ist eigentlich keine Geschichte darüber, dass ein Chatbot ein paar Produktempfehlungen falsch macht. Es geht um eine grundlegende Spannung in der Art und Weise, wie KI mit Expertenwissen interagiert. Diese Systeme saugen autoritative Inhalte auf, verpacken sie mit unterschiedlichem Genauigkeitsgrad neu und präsentieren sie als verlässliche Orientierung, während sie gleichzeitig das wirtschaftliche Modell untergraben, das diesen Inhalt überhaupt erst erzeugt.
Solange KI nicht zuverlässig die Grundlagen richtig hinbekommt, wäre vielleicht das Ehrlichste, was ChatGPT bei Produktempfehlungen sagen könnte: "Ich bin mir nicht ganz sicher. Hier ist ein Link zu Leuten, die diese Produkte tatsächlich getestet haben." Aber das würde natürlich eine Art Selbstwahrnehmung erfordern, die nach wie vor fest im Reich der Science-Fiction verankert ist.
Den Originalartikel gibt es hier: Quelle.
