Quando imagens reais são chamadas de falsas: O ataque israelita a um jornalista britânico que provou ser perturbadoramente autêntico

Quando imagens reais são chamadas de falsas: O ataque israelita a um jornalista britânico que provou ser perturbadoramente autêntico

Uma explosão muito real num mundo muito falso

Esta é a realidade absurda de cobrir um conflito em 2026: um jornalista britânico quase é morto por uma explosão diante das câmaras no sul do Líbano, e a primeira pergunta que milhões de pessoas fazem não é "Ele está bem?", mas sim "Isso é sequer real?"

A 19 de março de 2026, o correspondente da RT, Steve Sweeney, e o operador de câmara Ali Rida Sbeity estavam a reportar perto da Ponte Al-Qasmiya, a norte de Tiro, no sul do Líbano, quando um ataque aéreo israelita caiu a poucos metros da sua posição. As imagens são angustiantes. São também, como a BBC fez questão de verificar, inteiramente genuínas.

O facto de uma grande organização de notícias se ter sentido obrigada a começar o seu título com "não gerado por IA" diz tudo sobre o panorama informativo em que navegamos atualmente.

O que aconteceu realmente

Ambos os jornalistas sofreram ferimentos de estilhaços devido ao ataque e foram hospitalizados. Sbeity confirmou mais tarde, num vídeo separado, que ambos estavam a recuperar. O Comité para a Proteção dos Jornalistas (CPJ) condenou o incidente, com a diretora regional Sara Qudah a classificá-lo como uma violação do direito internacional.

A resposta das FDI foi caracteristicamente medida no tom, se não no armamento. Declararam que "foi emitido um aviso explícito relativamente a esta área" e que a travessia "foi atingida após ter passado tempo suficiente desde os avisos". As FDI mantêm que a ponte era um alvo legítimo utilizado pelo Hezbollah para transferências de armas.

Vale a pena notar que Sweeney trabalha para a RT, um meio de comunicação financiado pelo Estado russo, cuja editora-chefe, Margarita Simonyan, caracterizou o ataque como um atentado deliberado contra a imprensa. Se os jornalistas foram especificamente visados, continua por verificar por fontes independentes, embora a proximidade do ataque a pessoal da imprensa claramente identificado levante questões graves.

A crise de desinformação por IA que está a consumir este conflito

A razão pela qual a BBC estruturou o seu título em torno da autenticidade não é um capricho editorial. É uma necessidade. Desde que o conflito EUA-Israel-Irão começou a 28 de fevereiro de 2026, a desinformação gerada por IA atingiu níveis verdadeiramente sem precedentes.

Os números são impressionantes. O BBC Verify identificou mais de 110 publicações únicas geradas por IA apenas nas duas primeiras semanas de combates. Um vídeo fabricado, que pretendia mostrar mísseis a atingir Telavive, apareceu em mais de 300 publicações e acumulou dezenas de milhões de visualizações.

Mas é aqui que se torna verdadeiramente bizarro. O problema não é apenas o conteúdo falso em que as pessoas acreditam. É o conteúdo real que é descartado como falso. O chatbot Grok do X foi apanhado a fazer ambas as coisas: confirmar imagens geradas por IA como autênticas e rotular vídeos genuínos como deepfakes. Quando um vídeo autêntico de Benjamin Netanyahu num café circulou, o Grok declarou com confiança que era gerado por IA. O especialista em verificação Tal Hagin afirmou categoricamente que os detetores de IA "não são de confiança".

O DFRLab do Atlantic Council encontrou mais de 300 respostas contraditórias do Grok para um único vídeo. Isso não é uma ferramenta. É o lançamento de uma moeda ao ar com passos extra.

O "dividendo do mentiroso" em pleno efeito

Investigadores de segurança alertam há muito tempo para o "dividendo do mentiroso" da tecnologia deepfake: uma vez que as pessoas sabem que existem falsificações, tudo se torna negável. Estamos a ver essa teoria desenrolar-se em tempo real durante uma guerra, e é profundamente desconfortável.

O X anunciou suspensões de monetização de 90 dias para conteúdo de conflito gerado por IA sem etiqueta a 4 de março. Os EAU foram mais longe, prendendo 35 pessoas por partilharem vídeos de guerra gerados por IA. Estes são pensos rápidos numa artéria cortada.

Quando um jornalista é atingido por estilhaços diante das câmaras e a reação padrão do público é o ceticismo, algo fundamental quebrou-se na forma como processamos a realidade. Shayan Sardarizadeh, do BBC Verify, sugeriu que este conflito pode deter o recorde de vídeos virais gerados por IA de qualquer guerra. De sempre.

Porque é que isto importa além das manchetes

O ataque perto de Sweeney ocorreu apenas um dia depois de o diretor de programação da Al-Manar, Mohamed Sherri, e a sua esposa terem sido mortos num ataque israelita separado no centro de Beirute. A segurança da imprensa neste conflito está a deteriorar-se rapidamente, e a névoa de disparates gerados por IA torna a responsabilização ainda mais difícil de estabelecer.

Entrámos num período em que provar que algo aconteceu exige quase tanto esforço como a própria reportagem. Isso deveria preocupar todos, independentemente da posição que ocupem em qualquer muro geopolítico.

As imagens do quase acidente de Sweeney são reais. Os ferimentos foram reais. A única coisa artificial nesta história é a capacidade cada vez mais quebrada do mundo de distinguir a diferença.

Leia o artigo original em fonte.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.