Quando imagens reais são chamadas de falsas: O ataque israelita a um jornalista britânico que provou ser perturbadoramente autêntico
Uma explosão muito real num mundo muito falso
Esta é a realidade absurda de cobrir um conflito em 2026: um jornalista britânico quase é morto por uma explosão diante das câmaras no sul do Líbano, e a primeira pergunta que milhões de pessoas fazem não é "Ele está bem?", mas sim "Isso é sequer real?"
A 19 de março de 2026, o correspondente da RT, Steve Sweeney, e o operador de câmara Ali Rida Sbeity estavam a reportar perto da Ponte Al-Qasmiya, a norte de Tiro, no sul do Líbano, quando um ataque aéreo israelita caiu a poucos metros da sua posição. As imagens são angustiantes. São também, como a BBC fez questão de verificar, inteiramente genuínas.
O facto de uma grande organização de notícias se ter sentido obrigada a começar o seu título com "não gerado por IA" diz tudo sobre o panorama informativo em que navegamos atualmente.
O que aconteceu realmente
Ambos os jornalistas sofreram ferimentos de estilhaços devido ao ataque e foram hospitalizados. Sbeity confirmou mais tarde, num vídeo separado, que ambos estavam a recuperar. O Comité para a Proteção dos Jornalistas (CPJ) condenou o incidente, com a diretora regional Sara Qudah a classificá-lo como uma violação do direito internacional.
A resposta das FDI foi caracteristicamente medida no tom, se não no armamento. Declararam que "foi emitido um aviso explícito relativamente a esta área" e que a travessia "foi atingida após ter passado tempo suficiente desde os avisos". As FDI mantêm que a ponte era um alvo legítimo utilizado pelo Hezbollah para transferências de armas.
Vale a pena notar que Sweeney trabalha para a RT, um meio de comunicação financiado pelo Estado russo, cuja editora-chefe, Margarita Simonyan, caracterizou o ataque como um atentado deliberado contra a imprensa. Se os jornalistas foram especificamente visados, continua por verificar por fontes independentes, embora a proximidade do ataque a pessoal da imprensa claramente identificado levante questões graves.
A crise de desinformação por IA que está a consumir este conflito
A razão pela qual a BBC estruturou o seu título em torno da autenticidade não é um capricho editorial. É uma necessidade. Desde que o conflito EUA-Israel-Irão começou a 28 de fevereiro de 2026, a desinformação gerada por IA atingiu níveis verdadeiramente sem precedentes.
Os números são impressionantes. O BBC Verify identificou mais de 110 publicações únicas geradas por IA apenas nas duas primeiras semanas de combates. Um vídeo fabricado, que pretendia mostrar mísseis a atingir Telavive, apareceu em mais de 300 publicações e acumulou dezenas de milhões de visualizações.
Mas é aqui que se torna verdadeiramente bizarro. O problema não é apenas o conteúdo falso em que as pessoas acreditam. É o conteúdo real que é descartado como falso. O chatbot Grok do X foi apanhado a fazer ambas as coisas: confirmar imagens geradas por IA como autênticas e rotular vídeos genuínos como deepfakes. Quando um vídeo autêntico de Benjamin Netanyahu num café circulou, o Grok declarou com confiança que era gerado por IA. O especialista em verificação Tal Hagin afirmou categoricamente que os detetores de IA "não são de confiança".
O DFRLab do Atlantic Council encontrou mais de 300 respostas contraditórias do Grok para um único vídeo. Isso não é uma ferramenta. É o lançamento de uma moeda ao ar com passos extra.
O "dividendo do mentiroso" em pleno efeito
Investigadores de segurança alertam há muito tempo para o "dividendo do mentiroso" da tecnologia deepfake: uma vez que as pessoas sabem que existem falsificações, tudo se torna negável. Estamos a ver essa teoria desenrolar-se em tempo real durante uma guerra, e é profundamente desconfortável.
O X anunciou suspensões de monetização de 90 dias para conteúdo de conflito gerado por IA sem etiqueta a 4 de março. Os EAU foram mais longe, prendendo 35 pessoas por partilharem vídeos de guerra gerados por IA. Estes são pensos rápidos numa artéria cortada.
Quando um jornalista é atingido por estilhaços diante das câmaras e a reação padrão do público é o ceticismo, algo fundamental quebrou-se na forma como processamos a realidade. Shayan Sardarizadeh, do BBC Verify, sugeriu que este conflito pode deter o recorde de vídeos virais gerados por IA de qualquer guerra. De sempre.
Porque é que isto importa além das manchetes
O ataque perto de Sweeney ocorreu apenas um dia depois de o diretor de programação da Al-Manar, Mohamed Sherri, e a sua esposa terem sido mortos num ataque israelita separado no centro de Beirute. A segurança da imprensa neste conflito está a deteriorar-se rapidamente, e a névoa de disparates gerados por IA torna a responsabilização ainda mais difícil de estabelecer.
Entrámos num período em que provar que algo aconteceu exige quase tanto esforço como a própria reportagem. Isso deveria preocupar todos, independentemente da posição que ocupem em qualquer muro geopolítico.
As imagens do quase acidente de Sweeney são reais. Os ferimentos foram reais. A única coisa artificial nesta história é a capacidade cada vez mais quebrada do mundo de distinguir a diferença.
Leia o artigo original em fonte.

No comments yet. Be the first to share your thoughts.