News · 4 min lezen

Wanneer Echte Beelden Nep Worden Genoemd: De Israëlische Aanslag op een Britse Journalist Die Verontrustend Authentiek Bleek

BBC Verify verifieerde beelden van een Israëlische aanslag nabij journalist Steve Sweeney in Zuid-Libanon. Hoe AI-desinformatie echte oorlogsverslaggeving ondermijnt.

Wanneer Echte Beelden Nep Worden Genoemd: De Israëlische Aanslag op een Britse Journalist Die Verontrustend Authentiek Bleek

Een Heel Echte Explosie in een Heel Neppe Wereld

Dit is de absurde werkelijkheid van oorlogsverslaggeving in 2026: een Britse journalist wordt bijna opgeblazen voor de camera in Zuid-Libanon, en de eerste vraag die miljoenen mensen stellen is niet "Gaat het goed met hem?" maar "Is dit eigenlijk wel echt?"

Op 19 maart 2026 waren RT-correspondent Steve Sweeney en cameraman Ali Rida Sbeity aan het verslaan nabij de Al-Qasmiya-brug, ten noorden van Tyrus in Zuid-Libanon, toen een Israëlische luchtaanval op slechts enkele meters van hun positie insloeg. De beelden zijn aangrijpend. Ze zijn ook, zoals de BBC zorgvuldig heeft geverifieerd, volledig authentiek.

Het feit dat een grote nieuwsorganisatie zich genoodzaakt voelde om met "niet AI-gegenereerd" in de kop te beginnen, zegt alles over het informatielandschap waarin we ons nu bevinden.

Wat Er Werkelijk Gebeurde

Beide journalisten liepen scherfverwondingen op door de aanslag en werden opgenomen in het ziekenhuis. Sbeity bevestigde later in een apart video dat beiden aan het herstellen waren. Het Comité ter Bescherming van Journalisten (CPJ) veroordeelde het incident, waarbij regionaal directeur Sara Qudah het een schending van het internationaal recht noemde.

De reactie van het IDF was kenmerkend gematigd van toon, al gold dat niet voor het gebruikte wapentuig. Het IDF stelde dat "een expliciete waarschuwing was afgegeven voor dit gebied" en dat de oversteekplaats "werd getroffen nadat voldoende tijd was verstreken na de waarschuwingen." Het IDF handhaaft dat de brug een legitiem doelwit was dat door Hezbollah werd gebruikt voor wapenoverbrengingen.

Het is de moeite waard om op te merken dat Sweeney werkt voor RT, Russisch staatsgefinancierd media, waarvan hoofdredacteur Margarita Simonyan de aanslag kenschetste als een gerichte aanval op de pers. Of de journalisten specifiek werden aangevallen blijft onbevestigd door onafhankelijke bronnen, hoewel de nabijheid van de aanslag tot duidelijk geïdentificeerd perssonneel ernstige vragen oproept.

De AI-Desinformatiecrisis Die Dit Conflict Verteert

De reden dat de BBC zijn kop rondom authenticiteit formuleerde, is geen redactionele eigenaardigheid. Het is noodzaak. Sinds het US-Israël-Iran-conflict begon op 28 februari 2026, heeft AI-gegenereerde desinformatie werkelijk ongekende niveaus bereikt.

De cijfers zijn duizelingwekkend. BBC Verify identificeerde meer dan 110 unieke AI-gegenereerde berichten in slechts de eerste twee weken van de gevechten. Een gefabriceerde video die beweerde raketten te tonen die Tel Aviv troffen, verscheen in meer dan 300 berichten en verzamelde tientallen miljoenen weergaven.

Maar hier wordt het echt bizar. Het probleem is niet alleen dat nepinhoud voor echt wordt aangezien. Het is ook dat echte inhoud als nep wordt afgedaan. De Grok-chatbot van X is betrapt op allebei: het bevestigen van AI-gegenereerde beelden als authentiek en het bestempelen van echte video's als deepfakes. Toen een authentieke video van Benjamin Netanyahu in een café circuleerde, verklaarde Grok vol vertrouwen dat het AI-gegenereerd was. Verificatie-expert Tal Hagin heeft botweg gesteld dat AI-detectoren "niet te vertrouwen zijn."

De DFRLab van de Atlantic Council vond meer dan 300 tegenstrijdige Grok-reacties op één enkele video. Dat is geen hulpmiddel. Dat is een muntenworp met extra stappen.

Het "Leugenaarsvoordeel" in Volle Werking

Beveiligingsonderzoekers hebben lang gewaarschuwd voor het "leugenaarsvoordeel" van deepfake-technologie: zodra mensen weten dat vervalsingen bestaan, wordt alles ontkenbaarheid. We zien die theorie in realtime uitspelen tijdens een schietende oorlog, en het is diep ongemakkelijk.

X kondigde 90-daagse monetisatieschorsingen aan voor ongelabelde AI-conflictinhoud op 4 maart. De VAE ging verder en arresteerde 35 mensen voor het delen van AI-gegenereerde oorlogsvideo's. Dit zijn pleisters op een doorgesneden slagader.

Wanneer een journalist voor de camera door scherfverwondingen wordt getroffen en de standaardreactie van het publiek scepsis is, is er iets fundamenteels gebroken in de manier waarop we de werkelijkheid verwerken. BBC Verify's Shayan Sardarizadeh heeft gesuggereerd dat dit conflict het record kan houden voor de meest virale AI-gegenereerde video's van welke oorlog dan ook. Ooit.

Waarom Dit Verder Reikt Dan de Headlines

De aanslag nabij Sweeney vond plaats net een dag nadat Al-Manar-programmadirecteur Mohamed Sherri en zijn vrouw omkwamen bij een afzonderlijke Israëlische aanslag op centraal Beiroet. De persveiligheid in dit conflict verslechtert snel, en de mist van AI-gegenereerde onzin maakt verantwoording nog moeilijker vast te stellen.

We zijn een periode binnengegaan waarin bewijzen dat iets is gebeurd bijna evenveel moeite kost als de verslaggeving zelf. Dat zou iedereen zorgen moeten baren, ongeacht waar je staat in het geopolitieke debat.

De beelden van Sweeneys bijna-missen zijn echt. De verwondingen waren echt. Het enige kunstmatige aan dit verhaal is het steeds meer kapotte vermogen van de wereld om het verschil te zien.

Lees het originele artikel op bron.

D
Geschreven door

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.