ChatGPT próbował mi powiedzieć, co poleca WIRED. Pomylił się we wszystkim.
ChatGPT pewnie podaje bledne rekomendacje produktow z WIRED. Bledy dotycza az 63% wynikow. Sprawdz, co to oznacza dla twoich decyzji zakupowych.
Gdy AI wciela się w recenzenta technologii, nikt na tym nie wychodzi dobrze
Oto ciekawy eksperyment: zapytaj ChatGPT, co recenzenci WIRED polecają jako najlepszy telewizor, słuchawki lub laptop. No, spróbuj. Dostaniesz pewną siebie, starannie sformatowaną i zupełnie błędną odpowiedź. To cyfrowy odpowiednik prośby skierowanej do kogoś, kto nigdy nie oglądał piłki nożnej, o wskazanie najlepszej drużyny w Premier League i wysłuchania pełnego przekonania wywodu o Accrington Stanley.
Dokładnie to odkrył dziennikarz WIRED, Reece Rogers, gdy przetestował chatbota OpenAI. Wyniki nie były jedynie lekko niedokładne. Były spektakularnie, wręcz imponująco nieprawdziwe.
Wielka afera z telewizorem
Gdy Rogers zapytał ChatGPT o czołowy wybór WIRED w kategorii telewizorów, chatbot podobno wskazał LG QNED Evo Mini-LED jako najlepszy wybór ogólny. Brzmi wiarygodnie, prawda? Jest tylko jeden drobny problem: to nie jest to, co poleca WIRED. Gdy dopytał, ChatGPT podobno przyznał, że faktycznym liderem jest TCL QM6K, który po cichu wymienił na LG. Dlaczego? Można się tylko domyślać, ale "wymyślanie rzeczy z najwyższą pewnością siebie" wydaje się być znakiem rozpoznawczym generatywnej AI.
AirPods, których nikt jeszcze nie recenzował
Jest jeszcze lepiej. ChatGPT podobno wymienił również AirPods Max 2 jako wybór WIRED w kategorii słuchawek. Apple ogłosiło AirPods Max 2 16 marca 2026 roku, z dostępnością od 25 marca. W chwili pisania tego tekstu jest całkiem możliwe, że recenzent słuchawek WIRED, Ryan Waniata, nie miał jeszcze okazji, by je odpowiednio przetestować i dodać do poradnika zakupowego. Taki drobny szczegół. ChatGPT podobno nie pozwolił, by brak faktycznej recenzji stanął na przeszkodzie dobrej rekomendacji.
To trochę jak krytyk kulinarny zachwalający danie, którego nigdy nie skosztował. Oczywiście opis w menu brzmi świetnie, ale recenzje tak nie działają, prawda?
Laptop, który czas zapomniał
Być może najbardziej wymowna wpadka dotyczyła laptopów. ChatGPT podobno uparcie twierdził, że czołowym wyborem WIRED jest MacBook Air M4 z 2025 roku. MacBook Air M5 został ogłoszony 3 marca 2026 roku i trafił do sprzedaży 11 marca. W momencie tej rozmowy M5 był na rynku od tygodni. ChatGPT z pełnym przekonaniem polecał zeszłoroczny model jako aktualny faworyt, co przypomina trochę polecanie Windowsa 10, gdy Windows 11 jest dostępny od dawna.
Liczby malują ponury obraz
Żebyś nie myślał, że to odosobniony przypadek, dane sugerują coś innego. Sam OpenAI przyznał, że nawet 63% wzmianek o produktach w wynikach wyszukiwania ChatGPT zawiera nieścisłości. Niech to do ciebie dotrze. Prawie dwie trzecie wspominanych produktów obarczone jest błędami. Rzut monetą dałby ci lepsze szanse.
Nawet ze zmodernizowanymi funkcjami zakupowymi OpenAI i wyspecjalizowanym modelem zakupowym, dokładność przy złożonych zapytaniach sięga zaledwie 52%, w porównaniu do 37% dla standardowego ChatGPT Search. Poprawa? Technicznie tak. Uspokajająca? Absolutnie nie. Pokonanie tak niskiej poprzeczki to nie jest powód do świętowania.
Tymczasem szersze badanie wykazało, że 64% konsumentów zetknęło się w ciągu ostatnich sześciu miesięcy z generowanymi przez AI dezinformacjami na temat produktów lub usług. Badanie Washington State University z marca 2026 roku wystawiło AI ocenę niedostateczną za dokładność i spójność. Gdyby to było świadectwo szkolne, rodzice zostaliby wezwani na rozmowę.
Pyszna ironia umowy z Conde Nast
I tu zaczyna się prawdziwy absurd. Conde Nast, spółka macierzysta WIRED, podpisała wieloletnią umowę licencyjną z OpenAI w sierpniu 2024 roku. Umowa obejmuje WIRED, GQ, Vogue i inne tytuły, umożliwiając wyświetlanie ich treści w odpowiedziach ChatGPT wraz z odpowiednimi linkami.
A więc Conde Nast płaci za to, by jego treści pojawiały się w ChatGPT, a ChatGPT nadal podaje błędne rekomendacje. To jak zatrudnienie osobistego asystenta, który ma dostęp do wszystkich twoich plików, ale i tak woli wymyślać. Dałeś mu odpowiedzi, a on nadal improwizuje.
Problem przychodów z afiliacji, o którym mówi się za mało
Poza kwestią dokładności, kryje się tu bardziej podstępny problem. Gdy ChatGPT prezentuje rekomendacje produktów rzekomo oparte na recenzjach WIRED, te zestawienia nie zawierają linków afiliacyjnych wydawcy. To ma ogromne znaczenie.
Przychody z afiliacji są kołem ratunkowym dla dziennikarstwa technologicznego. Gdy klikasz link w recenzji i kupujesz produkt, publikacja zarabia niewielką prowizję, która pomaga finansować testy i pracę redakcyjną, z której korzystałeś. ChatGPT zgrabnie omija cały ten system. Czerpie z wiarygodności eksperckich recenzji, pozbawia je mechanizmu komercyjnego, który je finansuje, i na dokładkę często podaje błędne rekomendacje. To potrójny cios.
Coraz więcej osób sięga po chatboty AI w procesie zakupowym, a ChatGPT odpowiada za zdecydowaną większość ruchu zakupowego napędzanego przez AI. Każde zapytanie obsłużone przez ChatGPT to potencjalnie wizyta, która nigdy nie trafia na stronę wydawcy. Skala przekierowania ruchu może być jeszcze niewielka w liczbach bezwzględnych, ale kierunek jest jasny i powinien niepokoić każdego, kto ceni niezależne dziennikarstwo produktowe.
Niezręczny zwrot OpenAI
Wszystko to wpisuje się w szerszy kontekst prób OpenAI, w dużej mierze nieudanych, zdobycia pozycji w e-commerce. Firma uruchomiła funkcję "Instant Checkout" we wrześniu 2025 roku, która od tego czasu została ograniczona z powodu niskich współczynników konwersji i, jak można się domyślić, problemów z dokładnością. OpenAI repozycjonuje teraz ChatGPT jako narzędzie do odkrywania produktów i badań, a nie jako platformę do bezpośrednich zakupów.
Najnowsza wersja, GPT-5.4, deklaruje 33-procentowe zmniejszenie liczby halucynacji w porównaniu do GPT-5.2. Postęp? Z pewnością. Ale gdy punktem wyjścia jest mylenie się częściej niż nie, poprawa o 33% nadal pozostawia cię w wyraźnie zawodnym obszarze.
Co to oznacza dla ciebie w praktyce
Jeśli używasz ChatGPT, by pomóc sobie w decyzjach zakupowych, traktuj jego rekomendacje z takim samym sceptycyzmem, z jakim podszedłbyś do opinii nieznajomego na przystanku autobusowym. Może mieć rację. Może mylić się z pełnym przekonaniem. Po prostu nie wiesz, dopóki nie sprawdzisz.
Mądrzejsze podejście? Używaj AI jako punktu wyjścia, jeśli musisz, ale zawsze weryfikuj w rzeczywistym źródle. Jeśli ChatGPT twierdzi, że WIRED coś poleca, przejdź na stronę WIRED i sprawdź. Jeśli powołuje się na konkretną recenzję, znajdź tę recenzję. Dziesięć sekund dodatkowego wysiłku może uchronić cię przed kupnem produktu, którego żaden ekspert tak naprawdę nie polecił.
Szerszy kontekst
To tak naprawdę nie jest historia o chatbocie, który pomylił się przy kilku wyborach produktowych. To historia o fundamentalnym napięciu w tym, jak AI wchodzi w interakcję z ekspercką wiedzą. Te systemy pochłaniają autorytatywne treści, przepakowują je z różnym stopniem dokładności i prezentują jako wiarygodne wskazówki, jednocześnie podkopując model ekonomiczny, który te treści wytwarza.
Dopóki AI nie będzie potrafiło konsekwentnie poprawnie podawać podstawowych informacji, być może najbardziej uczciwa odpowiedź, jakiej ChatGPT mógłby udzielić na pytanie o rekomendacje produktowe, brzmiałaby: "Nie jestem do końca pewien. Oto link do ludzi, którzy te produkty faktycznie testowali." Ale to, oczywiście, wymagałoby rodzaju samoświadomości, która pozostaje mocno w sferze science fiction.
Przeczytaj oryginalny artykuł pod adresem zrodlo.
