ChatGPT намагався розповісти мені, що рекомендує WIRED. Він помилився в усьому.
ChatGPT впевнено рекомендує неправильні продукти, посилаючись на WIRED. Дізнайтеся, чому ШІ-поради щодо покупок залишаються ненадійними та чому це важливо для споживачів.
Коли ШІ грає роль технічного оглядача, не виграє ніхто
Ось цікавий експеримент: запитайте ChatGPT, що рекомендують оглядачі WIRED як найкращий телевізор, навушники або ноутбук. Давайте, спробуйте. Ви отримаєте впевнену, добре відформатовану і геть неправильну відповідь. Це цифровий еквівалент того, як попросити людину, яка ніколи не дивилася футбол, назвати найкращу команду Прем'єр-ліги і отримати пристрасне обґрунтування на користь Аккрінгтон Стенлі.
Саме це й виявив журналіст WIREDРіс Роджерс, коли випробував чат-бот OpenAI. Результати були не просто трохи хибними. Вони були разюче, майже вражаючи неточними.
Великий телевізійний скандал
Коли Роджерс запитав ChatGPT про найкращий телевізор за версією WIRED, чат-бот нібито видав LG QNED Evo Mini-LED як найкращий загальний вибір. Звучить цілком правдоподібно, правда? Є лише одна маленька проблема: це не те, що рекомендує WIRED. Коли його попросили уточнити, ChatGPT нібито погодився, що справжній топ-вибір це TCL QM6K, який він тихенько замінив на LG. Чому? Ваша здогадка така ж хороша, як і моя, але "вигадувати речі з граничною впевненістю" справді схоже на фірмовий прийом генеративного ШІ.
AirPods, які ніхто насправді не рецензував
Далі цікавіше. ChatGPT також нібито включив AirPods Max 2 як вибір WIRED для навушників. Apple анонсувала AirPods Max 2 16 березня 2026 року, а у продаж вони надійшли з 25 березня. На момент написання цієї статті цілком імовірно, що оглядач навушників WIRED Раян Ваніата ще не встиг належним чином протестувати їх і додати до посібника з купівлі. Дрібна деталь, правда. ChatGPT, схоже, не дозволив відсутності реальної рецензії завадити гарній рекомендації.
Це трохи схоже на те, як ресторанний критик схвалює страву, яку він ніколи не куштував. Звісно, опис у меню звучить чудово, але рецензії так не працюють, чи не так?
Ноутбук, який забув про час
Мабуть, найбільш промовиста помилка стосувалася ноутбуків. ChatGPT нібито наполягав на тому, що топ-вибір WIRED це MacBook Air M4 2025 року. MacBook Air M5 був анонсований 3 березня 2026 року і надійшов у продаж з 11 березня. На момент цієї розмови M5 вже кілька тижнів як був у продажу. ChatGPT впевнено рекомендував модель минулого року як актуальний фаворит, що трохи схоже на рекомендацію Windows 10, коли Windows 11 вже давно вийшла.
Цифри малюють похмуру картину
Щоб ви не думали, що це поодинокий випадок, дані свідчать про інше. Сам OpenAI визнав, що до 63% згадок продуктів у результатах пошуку ChatGPT містять неточності. Вдумайтеся. Майже дві третини продуктів, які він згадує, містять помилки. У вас були б кращі шанси підкидаючи монету.
Навіть із оновленими функціями покупок OpenAI та спеціалізованою моделлю для шопінгу, точність складних запитів сягає лише близько 52%, порівняно з 37% для стандартного ChatGPT Search. Покращення? Технічно так. Заспокійливо? Аж ніяк. Подолати настільки низьку планку не привід для святкування.
Тим часом ширше опитування показало, що 64% споживачів стикалися з дезінформацією про продукти або послуги, згенерованою ШІ, за останні шість місяців. Дослідження Університету штату Вашингтон від березня 2026 року поставило ШІ оцінку "D" за точність і послідовність. Якби це був шкільний табель, батьків би викликали до директора.
Смачна іронія угоди з Conde Nast
Ось де все стає справді абсурдним. Conde Nast, материнська компанія WIRED, підписала багаторічну ліцензійну угоду з OpenAI ще в серпні 2024 року. Угода охоплює WIRED, GQ, Vogue та інші видання, дозволяючи їхньому контенту з'являтися у відповідях ChatGPT з відповідними посиланнями.
Отже, Conde Nast платить за те, щоб її контент з'являвся в ChatGPT, а ChatGPT все одно помиляється з рекомендаціями. Це схоже на найм особистого асистента, який має доступ до всіх ваших файлів, але все одно наполягає на вигадках. Ви дали йому відповіді, а він все одно імпровізує.
Проблема партнерського доходу, про яку мало говорять
Окрім точності, є ще більш підступна проблема. Коли ChatGPT надає рекомендації щодо продуктів, нібито засновані на рецензіях WIRED, ці списки не містять партнерських посилань видавця. Це надзвичайно важливо.
Партнерський дохід це рятівний круг для технічної журналістики. Коли ви переходите за посиланням з рецензії, щоб купити продукт, видання отримує невелику комісію, яка допомагає фінансувати саме ті тестування та редакційну роботу, на які ви спиралися. ChatGPT акуратно обходить всю цю систему. Він бере авторитетність експертних рецензій, позбавляє їх комерційного механізму, який їх фінансує, і до того ж часто помиляється з самими рекомендаціями. Це потрійний удар.
Все більше людей звертаються до чат-ботів ШІ як частини процесу покупок, при цьому ChatGPT займає переважну більшість трафіку покупок, керованого ШІ. Кожен запит, на який відповідає ChatGPT, потенційно є відвідуванням, яке ніколи не дістанеться до сайту видавця. Перенаправлення трафіку може бути ще невеликим в абсолютному вираженні, але траєкторія очевидна, і це має турбувати кожного, хто цінує незалежну журналістику про продукти.
Незручний поворот OpenAI
Все це вписується в ширший контекст спроб OpenAI, здебільшого невдалих, закріпитися в електронній комерції. Компанія запустила функцію "Миттєвого оформлення замовлення" у вересні 2025 року, яку відтоді скорочено через низькі показники конверсії і, ви вгадали, проблеми з точністю. OpenAI тепер перепозиціонує ChatGPT скоріше як інструмент для відкриття продуктів та дослідження, аніж як пряму платформу для покупок.
Остання версія, GPT-5.4, заявляє про зниження рівня галюцинацій на 33% порівняно з GPT-5.2. Прогрес, безумовно. Але коли відправна точка передбачає помилки частіше, ніж правоту, покращення на 33% все одно залишає вас у явно ненадійній зоні.
Що це насправді означає для вас
Якщо ви використовуєте ChatGPT для допомоги у прийнятті рішень про покупки, ставтеся до його рекомендацій з тим самим скептицизмом, що й до думки незнайомця на автобусній зупинці. Він може бути правий. Він може бути впевнено неправий. Ви просто не можете сказати без перевірки.
Розумніший підхід? Використовуйте ШІ як відправну точку, якщо хочете, але завжди перевіряйте за реальним джерелом. Якщо ChatGPT каже, що WIRED щось рекомендує, зайдіть на WIRED і перевірте. Якщо він посилається на конкретну рецензію, знайдіть цю рецензію. Десять секунд додаткових зусиль можуть врятувати вас від купівлі продукту, який жоден експерт насправді не рекомендував.
Загальна картина
Це насправді не просто історія про те, як один чат-бот помилився з кількома вибраними продуктами. Це про фундаментальне протиріччя в тому, як ШІ взаємодіє з експертними знаннями. Ці системи поглинають авторитетний контент, переупаковують його з різним ступенем точності та подають як надійні рекомендації, одночасно підриваючи економічну модель, яка цей контент і створює.
Поки ШІ не зможе послідовно правильно справлятися з основами, мабуть, найчесніше, що міг би сказати ChatGPT на запитання про рекомендації щодо продуктів: "Я не зовсім впевнений. Ось посилання на людей, які насправді тестували ці продукти." Але це, звичайно, вимагало б того рівня самосвідомості, який залишається цілковито у сфері наукової фантастики.
Читайте оригінальну статтю за посиланням.
