Cuando las imágenes reales se tildan de falsas: el ataque israelí a un periodista británico que resultó inquietantemente auténtico

Cuando las imágenes reales se tildan de falsas: el ataque israelí a un periodista británico que resultó inquietantemente auténtico

Una explosión muy real en un mundo muy falso

Esta es la absurda realidad de cubrir un conflicto en 2026: un periodista británico casi muere en directo en el sur del Líbano, y la primera pregunta que se hacen millones de personas no es "¿está bien?", sino "¿es eso real?".

El 19 de marzo de 2026, el corresponsal de RT Steve Sweeney y el cámara Ali Rida Sbeity informaban cerca del puente Al-Qasmiya, al norte de Tiro, en el sur del Líbano, cuando un ataque aéreo israelí cayó a escasos metros de su posición. Las imágenes son desgarradoras. También son, como la BBC se ha encargado de verificar, totalmente auténticas.

El hecho de que un importante medio de comunicación se viera obligado a encabezar su titular con "no generado por IA" te dice todo lo que necesitas saber sobre el panorama informativo en el que nos movemos ahora.

Lo que ocurrió realmente

Ambos periodistas sufrieron heridas de metralla por el impacto y fueron hospitalizados. Sbeity confirmó más tarde en un vídeo aparte que ambos se estaban recuperando. El Comité para la Protección de los Periodistas (CPJ) condenó el incidente, y la directora regional Sara Qudah lo calificó de violación del derecho internacional.

La respuesta de las FDI fue característicamente medida en el tono, si no en el armamento. Afirmaron que "se había emitido una advertencia explícita sobre esta zona" y que el cruce "fue atacado tras haber transcurrido suficiente tiempo desde las advertencias". Las FDI sostienen que el puente era un objetivo legítimo utilizado por Hezbolá para el traslado de armas.

Cabe señalar que Sweeney trabaja para RT, medio financiado por el Estado ruso, cuya redactora jefa, Margarita Simonyan, calificó el ataque de atentado deliberado contra la prensa. Si los periodistas fueron atacados específicamente sigue sin ser verificado por fuentes independientes, aunque la proximidad del ataque al personal de prensa claramente identificado plantea serias dudas.

La crisis de desinformación por IA que devora este conflicto

La razón por la que la BBC estructuró su titular en torno a la autenticidad no es un capricho editorial. Es una necesidad. Desde que comenzó el conflicto entre Estados Unidos, Israel e Irán el 28 de febrero de 2026, la desinformación generada por IA ha alcanzado niveles sin precedentes.

Las cifras son asombrosas. BBC Verify identificó más de 110 publicaciones únicas generadas por IA solo en las dos primeras semanas de combates. Un vídeo falso que pretendía mostrar misiles impactando en Tel Aviv apareció en más de 300 publicaciones y acumuló decenas de millones de visitas.

Pero aquí es donde se pone realmente extraño. El problema no es solo que se crea en contenido falso. Es que se descarte contenido real por considerarlo falso. El chatbot Grok de X ha sido sorprendido haciendo ambas cosas: confirmar como auténticas imágenes generadas por IA y etiquetar vídeos genuinos como deepfakes. Cuando circuló un vídeo auténtico de Benjamin Netanyahu en una cafetería, Grok declaró con seguridad que estaba generado por IA. El experto en verificación Tal Hagin ha declarado sin rodeos que las herramientas de detección de IA "no son fiables".

El DFRLab del Atlantic Council encontró más de 300 respuestas contradictorias de Grok ante un mismo vídeo. Eso no es una herramienta. Es lanzar una moneda al aire con pasos extra.

El "dividendo del mentiroso" en pleno efecto

Los investigadores de seguridad llevan tiempo advirtiendo sobre el "dividendo del mentiroso" de la tecnología deepfake: una vez que la gente sabe que existen falsificaciones, todo se vuelve negable. Estamos viendo cómo esa teoría se desarrolla en tiempo real durante una guerra, y es profundamente incómodo.

X anunció suspensiones de monetización de 90 días para contenido de conflicto generado por IA sin etiquetar el 4 de marzo. Emiratos Árabes Unidos fue más allá y detuvo a 35 personas por compartir vídeos de guerra generados por IA. Son parches en una arteria cortada.

Cuando un periodista es alcanzado por metralla ante las cámaras y la reacción por defecto del público es el escepticismo, algo fundamental se ha roto en nuestra forma de procesar la realidad. Shayan Sardarizadeh, de BBC Verify, ha sugerido que este conflicto podría ostentar el récord de mayor número de vídeos virales generados por IA de cualquier guerra. De siempre.

Por qué esto importa más allá de los titulares

El ataque cerca de Sweeney se produjo solo un día después de que el director de programación de Al-Manar, Mohamed Sherri, y su esposa murieran en otro ataque israelí en el centro de Beirut. La seguridad de la prensa en este conflicto se está deteriorando rápidamente, y la niebla de tonterías generadas por IA hace que sea aún más difícil establecer responsabilidades.

Hemos entrado en un periodo en el que demostrar que algo ocurrió requiere casi tanto esfuerzo como el propio reportaje. Eso debería preocupar a todo el mundo, independientemente de dónde te sitúes en cualquier dilema geopolítico.

Las imágenes del casi accidente de Sweeney son reales. Las heridas fueron reales. Lo único artificial en esta historia es la capacidad cada vez más rota del mundo para distinguir la diferencia.

Lee el artículo original en fuente.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.