ChatGPT пытался рассказать мне, что рекомендует WIRED. Он ошибся во всём.
ChatGPT уверенно называет неверные рекомендации вместо реальных picks от WIRED. Разбираем, почему ИИ-советы по покупкам опасно ненадёжны и что это значит для потребителей.
Когда ИИ играет роль технического обозревателя, в проигрыше все
Вот забавный эксперимент: спросите ChatGPT, что обозреватели WIRED рекомендуют в качестве лучшего телевизора, наушников или ноутбука. Попробуйте. Вы получите уверенный, хорошо отформатированный и абсолютно неверный ответ. Это цифровой эквивалент того, как попросить человека, никогда не смотревшего футбол, назвать лучший клуб Премьер-лиги и услышать в ответ страстную защиту «Аккрингтон Стэнли».
Именно это и обнаружил журналист WIRED Рис Роджерс, когда протестировал чат-бот OpenAI. Результаты оказались не просто немного неточными. Они были ошеломительно, почти впечатляюще неверными.
Великий телевизионный провал
Когда Роджерс спросил ChatGPT о лучшем телевизоре по версии WIRED, чат-бот, по имеющимся данным, выдал LG QNED Evo Mini-LED в качестве лучшего выбора. Звучит правдоподобно, не так ли? Есть лишь одна небольшая проблема: это не то, что рекомендует WIRED. Когда его прижали к стене, ChatGPT якобы признал, что настоящим лидером является TCL QM6K, который он тихо заменил на LG. Почему? Можно только догадываться, но «уверенное сочинительство» действительно кажется фирменным приёмом генеративного ИИ.
AirPods, которые никто на самом деле не тестировал
Дальше лучше. По имеющимся данным, ChatGPT также назвал AirPods Max 2 выбором WIRED среди наушников. Apple анонсировала AirPods Max 2 16 марта 2026 года, поступление в продажу началось 25 марта. На момент написания этой статьи вполне возможно, что обозреватель наушников WIRED Райан Ванята ещё не успел как следует их протестировать и добавить в руководство по покупкам. Незначительная деталь, не правда ли? ChatGPT, судя по всему, не позволил отсутствию реальной рецензии помешать хорошей рекомендации.
Это немного похоже на ресторанного критика, нахваливающего блюдо, которое он никогда не пробовал. Конечно, описание в меню звучит замечательно, но рецензии работают не совсем так, не так ли?
Ноутбук, которого время не заметило
Пожалуй, самый показательный промах касался ноутбуков. ChatGPT, по имеющимся данным, настаивал на том, что лучшим выбором WIRED является MacBook Air M4 2025 года. MacBook Air M5 был анонсирован 3 марта 2026 года и поступил в продажу с 11 марта. К тому моменту, когда происходил этот разговор, M5 уже несколько недель был в продаже. ChatGPT уверенно рекомендовал прошлогоднюю модель как актуальный фаворит, что примерно то же самое, что советовать Windows 10, когда Windows 11 давно вышла.
Цифры рисуют мрачную картину
Чтобы вы не думали, что это единичный случай, данные говорят об обратном. Сама OpenAI признала, что до 63% упоминаний продуктов в результатах поиска ChatGPT содержат неточности. Вдумайтесь в это. Почти две трети упоминаемых продуктов сопровождаются ошибками. С монетой у вас были бы лучшие шансы.
Даже с обновлёнными функциями покупок OpenAI и специализированной моделью для шопинга точность при сложных запросах достигает лишь около 52% против 37% у стандартного ChatGPT Search. Улучшение? Технически да. Обнадёживает? Абсолютно нет. Преодолеть столь низкую планку не повод для торжества.
Тем временем более широкое исследование показало, что 64% потребителей за последние полгода сталкивались с ИИ-дезинформацией о продуктах или услугах. Исследование Государственного университета Вашингтона от марта 2026 года поставило ИИ оценку «неудовлетворительно» за точность и последовательность. Если бы это был школьный дневник, родителей вызвали бы к директору.
Восхитительная ирония сделки с Conde Nast
Вот где всё становится по-настоящему абсурдным. Conde Nast, материнская компания WIRED, заключила многолетнее лицензионное соглашение с OpenAI ещё в августе 2024 года. Соглашение распространяется на WIRED, GQ, Vogue и другие издания, позволяя их контенту появляться в ответах ChatGPT с соответствующими ссылками.
То есть Conde Nast платит за то, чтобы её контент появлялся в ChatGPT, а ChatGPT всё равно неправильно выдаёт рекомендации. Это как нанять личного помощника с доступом ко всем вашим файлам, который при этом продолжает всё выдумывать. Вы дали ему готовые ответы, а он всё равно импровизирует.
Проблема партнёрских доходов, о которой говорят недостаточно
Помимо точности, существует более коварная проблема. Когда ChatGPT представляет рекомендации продуктов, якобы основанные на обзорах WIRED, в этих списках нет партнёрских ссылок издателя. А это крайне важно.
Партнёрские доходы — жизненная артерия технической журналистики. Когда вы переходите по ссылке из обзора и покупаете товар, издание получает небольшую комиссию, которая финансирует именно ту работу по тестированию и редакционную деятельность, на которую вы опирались. ChatGPT аккуратно обходит всю эту систему. Он берёт авторитет экспертных обзоров, убирает коммерческий механизм, который их финансирует, и нередко ещё и ошибается с самими рекомендациями. Это тройной удар.
Всё больше людей обращаются к ИИ-чат-ботам в процессе совершения покупок, причём ChatGPT занимает подавляющую долю ИИ-трафика в сфере шопинга. Каждый запрос, обработанный ChatGPT, потенциально является визитом, который так и не дошёл до сайта издателя. В абсолютных цифрах переток трафика пока невелик, но тренд очевиден, и это должно беспокоить каждого, кто ценит независимую потребительскую журналистику.
Неловкий разворот OpenAI
Всё это происходит в более широком контексте попыток OpenAI, в целом безуспешных, завоевать рынок электронной коммерции. В сентябре 2025 года компания запустила функцию «Мгновенная оплата», которую впоследствии свернули из-за низкой конверсии и, как вы уже догадались, проблем с точностью. Теперь OpenAI позиционирует ChatGPT скорее как инструмент для поиска и изучения товаров, нежели как прямую платформу для покупок.
Последняя версия, GPT-5.4, заявляет о снижении уровня галлюцинаций на 33% по сравнению с GPT-5.2. Прогресс, безусловно. Но когда отправная точка предполагает ошибки чаще, чем верные ответы, улучшение на 33% всё равно оставляет вас в зоне откровенной ненадёжности.
Что это значит лично для вас
Если вы используете ChatGPT для помощи с покупками, относитесь к его рекомендациям с той же долей скептицизма, с которой вы бы отнеслись к мнению незнакомца на автобусной остановке. Он может оказаться прав. Он может уверенно ошибаться. Понять это без проверки невозможно.
Более разумный подход? Используйте ИИ как отправную точку, если хотите, но всегда сверяйтесь с первоисточником. Если ChatGPT говорит, что WIRED что-то рекомендует, зайдите на WIRED и проверьте. Если он ссылается на конкретный обзор, найдите этот обзор. Десять секунд дополнительных усилий могут уберечь вас от покупки товара, который ни один эксперт на самом деле не рекомендовал.
Общая картина
Это на самом деле не история о том, как один чат-бот ошибся с несколькими рекомендациями товаров. Это история о фундаментальном противоречии в том, как ИИ взаимодействует с экспертными знаниями. Эти системы поглощают авторитетный контент, переупаковывают его с разной степенью точности и представляют как надёжное руководство, одновременно подрывая экономическую модель, которая этот контент производит.
Пока ИИ не научится стабильно справляться с базовыми задачами, возможно, самым честным ответом ChatGPT на запрос о рекомендациях товаров было бы: «Я не совсем уверен. Вот ссылка на людей, которые реально тестировали эти продукты.» Но это, конечно, потребовало бы уровня самосознания, который пока прочно остаётся в области научной фантастики.
Прочитайте оригинальную статью на источнике.
