ChatGPT intentó decirme qué recomienda WIRED. Se equivocó en todo.
ChatGPT recomienda con total confianza productos que WIRED nunca ha elegido. Analizamos los errores, los datos y lo que esto significa para el periodismo tecnológico independiente.
Cuando la IA hace de crítico tecnológico, nadie gana
Aquí va un experimento entretenido: pregúntale a ChatGPT qué recomienda WIRED como la mejor televisión, los mejores auriculares o el mejor portátil. Adelante, inténtalo. Obtendrás una respuesta segura, bien formateada y completamente errónea. Es el equivalente digital de pedirle a alguien que nunca ha visto un partido de fútbol que te diga cuál es el mejor equipo de la Premier League, y que te haga un apasionado alegato a favor del Accrington Stanley.
Eso es, en esencia, lo que descubrió el periodista de WIRED Reece Rogers cuando puso al chatbot de OpenAI a prueba. Los resultados no fueron simplemente inexactos. Fueron espectacularmente, casi impresionantemente incorrectos.
El gran desastre de los televisores
Cuando Rogers le preguntó a ChatGPT cuál era la mejor televisión según WIRED, el chatbot supuestamente ofreció el LG QNED Evo Mini-LED como la mejor opción general. Suena bastante plausible, ¿verdad? Solo hay un pequeño problema: eso no es lo que recomienda WIRED. Al insistir, ChatGPT aparentemente admitió que la elección real era el TCL QM6K, que había sustituido silenciosamente por el LG. ¿Por qué? Tu suposición es tan válida como la mía, pero "inventarse cosas con absoluta confianza" parece ser el movimiento característico de la IA generativa.
Unos AirPods que nadie había analizado realmente
La cosa mejora. ChatGPT también incluyó supuestamente los AirPods Max 2 como la elección de auriculares de WIRED. Apple anunció los AirPods Max 2 el 16 de marzo de 2026, con disponibilidad a partir del 25 de marzo. En el momento de redactar este artículo, es completamente plausible que el analista de auriculares de WIRED, Ryan Waniata, no hubiera tenido aún la oportunidad de probarlos correctamente e incorporarlos a la guía de compra. Un detalle menor, ese. ChatGPT aparentemente no dejó que la ausencia de un análisis real se interpusiera en el camino de una buena recomendación.
Es un poco como un crítico gastronómico que avala un plato que nunca ha probado. Claro, la descripción del menú suena estupenda, pero así no es exactamente como funcionan las reseñas, ¿verdad?
El portátil que el tiempo olvidó
Quizás el error más revelador tuvo que ver con los portátiles. ChatGPT supuestamente seguía insistiendo en que la mejor elección de WIRED era el MacBook Air M4 de 2025. El MacBook Air M5 fue anunciado el 3 de marzo de 2026 y salió a la venta el 11 de marzo. En el momento en que se produjo esta conversación, el M5 llevaba semanas disponible. ChatGPT recomendaba con total seguridad el modelo del año anterior como el favorito actual, algo así como recomendar Windows 10 cuando Windows 11 lleva años disponible.
Los números pintan un panorama desolador
Por si crees que esto es un caso aislado, los datos sugieren lo contrario. El propio OpenAI reconoció que hasta el 63% de las menciones de productos en los resultados de búsqueda de ChatGPT contenían inexactitudes. Deja que eso cale. Casi dos tercios de los productos que menciona vienen acompañados de errores. Tendrías mejores probabilidades lanzando una moneda al aire.
Incluso con las renovadas funciones de compra de OpenAI y un modelo de compras especializado, la precisión en consultas complejas solo alcanza alrededor del 52%, frente al 37% de ChatGPT Search estándar. ¿Una mejora? Técnicamente, sí. ¿Tranquilizadora? En absoluto. Superar un listón tan bajo no es exactamente motivo de celebración.
Mientras tanto, una encuesta más amplia reveló que el 64% de los consumidores ha encontrado desinformación generada por IA sobre productos o servicios en los últimos seis meses. Un estudio de la Universidad Estatal de Washington de marzo de 2026 le dio a la IA una nota de 'D' en precisión y consistencia. Si esto fuera un boletín escolar, habría que llamar a los padres.
La deliciosa ironía del acuerdo con Conde Nast
Aquí es donde la cosa se vuelve verdaderamente absurda. Conde Nast, la empresa matriz de WIRED, firmó un acuerdo de licencia plurianual con OpenAI en agosto de 2024. El acuerdo abarca WIRED, GQ, Vogue y otras publicaciones, y permite que su contenido aparezca en las respuestas de ChatGPT con los enlaces correspondientes.
Así que Conde Nast paga para que su contenido aparezca en ChatGPT, y ChatGPT sigue equivocándose con las recomendaciones. Es como contratar a un asistente personal que tiene acceso a todos tus archivos pero insiste en inventarse las cosas de todas formas. Le has dado las respuestas y aun así improvisa.
El problema de los ingresos por afiliados del que nadie habla lo suficiente
Más allá de la precisión, hay un problema más insidioso en juego. Cuando ChatGPT presenta recomendaciones de productos supuestamente basadas en las reseñas de WIRED, esos listados no incluyen los enlaces de afiliados del editor. Esto importa enormemente.
Los ingresos por afiliados son un salvavidas para el periodismo tecnológico. Cuando haces clic desde una reseña para comprar un producto, la publicación obtiene una pequeña comisión que ayuda a financiar el trabajo de pruebas y redacción del que dependiste. ChatGPT esquiva limpiamente todo este sistema. Toma la credibilidad de las reseñas de expertos, elimina el mecanismo comercial que las financia, y a menudo se equivoca en las recomendaciones reales para rematar. Es un golpe triple.
Cada vez más personas recurren a los chatbots de IA como parte de su proceso de compra, y ChatGPT acapara la gran mayoría del tráfico de compras impulsado por IA. Cada consulta respondida por ChatGPT es potencialmente una visita que nunca llega al sitio web del editor. La desviación de tráfico puede seguir siendo pequeña en términos absolutos, pero la trayectoria es clara, y debería preocupar a cualquiera que valore el periodismo independiente sobre productos.
El incómodo giro de OpenAI
Todo esto se enmarca en un contexto más amplio en el que OpenAI intenta, y en gran medida lucha por, abrirse paso en el comercio electrónico. La empresa lanzó una función de 'Compra Instantánea' en septiembre de 2025, que desde entonces se ha reducido debido a las bajas tasas de conversión y, lo adivinaste, problemas de precisión. OpenAI está reposicionando ahora a ChatGPT más como una herramienta de descubrimiento e investigación de productos que como una plataforma de compra directa.
La última versión, GPT-5.4, afirma una reducción del 33% en las tasas de alucinaciones en comparación con GPT-5.2. Un avance, sin duda. Pero cuando tu punto de partida implica equivocarse más veces de las que aciertas, una mejora del 33% te deja igualmente en un territorio decididamente poco fiable.
Lo que esto significa realmente para ti
Si utilizas ChatGPT para ayudarte con decisiones de compra, trata sus recomendaciones con el mismo escepticismo que le darías a la opinión de un desconocido en la parada del autobús. Puede que tenga razón. Puede que esté seguro de algo completamente incorrecto. Simplemente no puedes saberlo sin comprobarlo.
¿El enfoque más inteligente? Usa la IA como punto de partida si es necesario, pero verifica siempre contra la fuente original. Si ChatGPT dice que WIRED recomienda algo, ve a WIRED y compruébalo. Si cita una reseña específica, busca esa reseña. Esos diez segundos de esfuerzo adicional podrían salvarte de comprar un producto que ningún experto recomendó realmente.
El panorama general
Esto no es realmente una historia sobre un chatbot que se equivoca en unas pocas recomendaciones de productos. Es sobre una tensión fundamental en la forma en que la IA interactúa con el conocimiento experto. Estos sistemas absorben contenido autorizado, lo reempaquetan con distintos grados de precisión y lo presentan como orientación fiable, todo ello mientras socavan el modelo económico que produce ese contenido en primer lugar.
Hasta que la IA no pueda acertar de forma consistente con lo básico, quizás lo más honesto que podría decir ChatGPT cuando se le piden recomendaciones de productos es: "No estoy del todo seguro. Aquí tienes un enlace a personas que realmente probaron estos productos." Pero eso, por supuesto, requeriría el tipo de autoconciencia que sigue firmemente en el terreno de la ciencia ficción.
Lee el artículo original en la fuente.
