Quand des images réelles sont jugées fausses : la frappe israélienne sur un journaliste britannique qui s'est révélée troublante d'authenticité
Une explosion bien réelle dans un monde bien faux
Voici l'absurde réalité de la couverture des conflits en 2026 : un journaliste britannique manque d'être pulvérisé devant une caméra dans le sud du Liban, et la première question que se posent des millions de personnes n'est pas « Est-il en sécurité ? » mais « Est-ce bien réel ? »
Le 19 mars 2026, le correspondant de RT Steve Sweeney et le caméraman Ali Rida Sbeity réalisaient un reportage près du pont d'Al-Qasmiya, au nord de Tyr dans le sud du Liban, lorsqu'une frappe aérienne israélienne a touché le sol à quelques mètres seulement de leur position. Les images sont atroces. Elles sont également, comme la BBC s'est efforcée de le vérifier, tout à fait authentiques.
Le fait qu'une grande organisation médiatique se soit sentie obligée de préciser « non généré par IA » dans son titre en dit long sur le paysage informationnel dans lequel nous évoluons désormais.
Ce qui s'est réellement passé
Les deux journalistes ont subi des blessures dues aux éclats d'obus lors de la frappe et ont été hospitalisés. Sbeity a confirmé plus tard dans une vidéo distincte qu'ils étaient tous deux en convalescence. Le Comité pour la protection des journalistes (CPJ) a condamné l'incident, la directrice régionale Sara Qudah qualifiant cela de violation du droit international.
La réponse des FDI était, comme à son habitude, mesurée dans le ton sinon dans l'armement. Elles ont déclaré qu'un « avertissement explicite avait été émis concernant cette zone » et que le passage « a été frappé après qu'un temps suffisant se soit écoulé depuis les avertissements ». Les FDI maintiennent que le pont était une cible légitime utilisée par le Hezbollah pour des transferts d'armes.
Il convient de noter que Sweeney travaille pour RT, un média financé par l'État russe, dont la rédactrice en chef Margarita Simonyan a qualifié la frappe d'attaque délibérée contre la presse. Le fait que les journalistes aient été spécifiquement visés reste invérifié par des sources indépendantes, bien que la proximité de la frappe avec du personnel de presse clairement identifié soulève de sérieuses questions.
La crise de la désinformation par IA qui ronge ce conflit
La raison pour laquelle la BBC a articulé son titre autour de l'authenticité n'est pas un caprice éditorial. C'est une nécessité. Depuis que le conflit États-Unis-Israël-Iran a commencé le 28 février 2026, la désinformation générée par IA a atteint des niveaux sans précédent.
Les chiffres sont stupéfiants. BBC Verify a identifié plus de 110 publications uniques générées par IA au cours des deux premières semaines de combat seulement. Une vidéo fabriquée prétendant montrer des missiles frappant Tel-Aviv est apparue dans plus de 300 publications et a accumulé des dizaines de millions de vues.
Mais voici où les choses deviennent franchement bizarres. Le problème n'est pas seulement que le faux contenu soit cru. C'est que le contenu réel soit rejeté comme étant faux. Le chatbot Grok de X a été pris en flagrant délit de faire les deux : confirmer l'authenticité d'images générées par IA tout en qualifiant de deepfakes des vidéos authentiques. Lorsqu'une vidéo authentique de Benjamin Netanyahu dans un café a circulé, Grok a déclaré avec assurance qu'elle était générée par IA. L'expert en vérification Tal Hagin a déclaré sans détour que les détecteurs d'IA « ne sont pas fiables ».
Le DFRLab de l'Atlantic Council a trouvé plus de 300 réponses contradictoires de Grok pour une seule vidéo. Ce n'est pas un outil. C'est un jeu de pile ou face avec des complications inutiles.
Le « dividende du menteur » en pleine action
Les chercheurs en sécurité ont longtemps mis en garde contre le « dividende du menteur » de la technologie deepfake : une fois que les gens savent que les faux existent, tout devient niable. Nous assistons à cette théorie en temps réel pendant une guerre, et c'est profondément inconfortable.
X a annoncé des suspensions de monétisation de 90 jours pour les contenus de conflit générés par IA non étiquetés le 4 mars. Les Émirats arabes unis sont allés plus loin, arrêtant 35 personnes pour avoir partagé des vidéos de guerre générées par IA. Ce sont des pansements sur une artère sectionnée.
Lorsqu'un journaliste est touché par des éclats d'obus devant une caméra et que la réaction par défaut du public est le scepticisme, quelque chose de fondamental s'est brisé dans notre manière de traiter la réalité. Shayan Sardarizadeh de BBC Verify a suggéré que ce conflit pourrait détenir le record du plus grand nombre de vidéos virales générées par IA de toutes les guerres. Jamais.
Pourquoi cela compte au-delà des gros titres
La frappe près de Sweeney est survenue juste un jour après que le directeur des programmes d'Al-Manar, Mohamed Sherri, et sa femme aient été tués dans une frappe israélienne distincte sur le centre de Beyrouth. La sécurité de la presse dans ce conflit se détériore rapidement, et le brouillard du non-sens généré par IA rend la responsabilité encore plus difficile à établir.
Nous sommes entrés dans une période où prouver que quelque chose s'est produit demande presque autant d'efforts que le reportage lui-même. Cela devrait inquiéter tout le monde, quel que soit votre positionnement sur l'échiquier géopolitique.
Les images de l'incident de Sweeney sont réelles. Les blessures étaient réelles. La seule chose artificielle dans cette histoire est la capacité de plus en plus brisée du monde à faire la différence.
Lisez l'article original sur source.

No comments yet. Be the first to share your thoughts.