Wenn echtes Filmmaterial für gefälscht gehalten wird: Der israelische Angriff auf einen britischen Journalisten, der erschreckend authentisch war
Eine sehr reale Explosion in einer sehr gefälschten Welt
Hier ist die absurde Realität der Berichterstattung über Konflikte im Jahr 2026: Ein britischer Journalist wird im Südlibanon vor laufender Kamera beinahe in die Luft gesprengt, und die erste Frage, die sich Millionen von Menschen stellen, lautet nicht "Geht es ihm gut?", sondern "Ist das überhaupt echt?"
Am 19. März 2026 berichteten der RT-Korrespondent Steve Sweeney und der Kameramann Ali Rida Sbeity in der Nähe der Al-Qasmiya-Brücke nördlich von Tyros im Südlibanon, als ein israelischer Luftangriff nur wenige Meter von ihrer Position entfernt einschlug. Das Filmmaterial ist erschütternd. Es ist zudem, wie die BBC nach eingehender Prüfung bestätigt hat, vollkommen echt.
Die Tatsache, dass sich eine große Nachrichtenorganisation gezwungen sah, ihre Schlagzeile mit "nicht KI-generiert" zu beginnen, sagt alles über die Informationslandschaft aus, in der wir uns derzeit bewegen.
Was tatsächlich geschah
Beide Journalisten erlitten durch den Angriff Splitterverletzungen und wurden ins Krankenhaus eingeliefert. Sbeity bestätigte später in einem separaten Video, dass beide auf dem Weg der Besserung seien. Das Komitee zum Schutz von Journalisten (CPJ) verurteilte den Vorfall, wobei die Regionaldirektorin Sara Qudah ihn als Verstoß gegen das Völkerrecht bezeichnete.
Die Reaktion der israelischen Armee (IDF) war im Tonfall gewohnt sachlich, wenn auch nicht in Bezug auf die eingesetzte Munition. Sie erklärte, dass "eine ausdrückliche Warnung für dieses Gebiet ausgegeben wurde" und dass der Übergang "getroffen wurde, nachdem seit den Warnungen ausreichend Zeit verstrichen war". Die IDF beharrt darauf, dass die Brücke ein legitimes Ziel war, das von der Hisbollah für Waffentransfers genutzt wurde.
Es ist erwähnenswert, dass Sweeney für RT arbeitet, ein russisches, staatlich finanziertes Medium, dessen Chefredakteurin Margarita Simonyan den Angriff als gezielten Anschlag auf die Presse bezeichnete. Ob die Journalisten gezielt ins Visier genommen wurden, bleibt von unabhängiger Seite unbestätigt, obwohl die Nähe des Einschlags zu eindeutig gekennzeichnetem Pressepersonal ernsthafte Fragen aufwirft.
Die KI-Desinformationskrise, die diesen Konflikt auffrisst
Der Grund, warum die BBC ihre Schlagzeile auf die Authentizität ausgerichtet hat, ist kein redaktioneller Spleen. Es ist eine Notwendigkeit. Seit Beginn des Konflikts zwischen den USA, Israel und dem Iran am 28. Februar 2026 hat KI-generierte Desinformation ein bisher ungekanntes Ausmaß erreicht.
Die Zahlen sind erschütternd. BBC Verify identifizierte allein in den ersten zwei Wochen der Kämpfe über 110 einzigartige KI-generierte Beiträge. Ein gefälschtes Video, das angeblich zeigen sollte, wie Raketen in Tel Aviv einschlugen, erschien in mehr als 300 Beiträgen und erzielte zig Millionen Aufrufe.
Aber hier wird es richtig bizarr. Das Problem ist nicht nur, dass gefälschte Inhalte geglaubt werden. Es ist, dass echte Inhalte als Fälschungen abgetan werden. Der Grok-Chatbot von X wurde dabei ertappt, wie er beides tat: KI-generiertes Filmmaterial als authentisch bestätigte und echte Videos als Deepfakes brandmarkte. Als ein echtes Video von Benjamin Netanjahu in einem Café kursierte, erklärte Grok selbstbewusst, es sei KI-generiert. Der Verifizierungsexperte Tal Hagin erklärte unverblümt, dass KI-Detektoren "nicht vertrauenswürdig" seien.
Das DFRLab des Atlantic Council fand über 300 widersprüchliche Grok-Antworten auf ein einziges Video. Das ist kein Werkzeug. Das ist ein Münzwurf mit zusätzlichen Schritten.
Die "Dividende des Lügners" in voller Wirkung
Sicherheitsforscher warnen schon lange vor der "Dividende des Lügners" der Deepfake-Technologie: Sobald die Menschen wissen, dass Fälschungen existieren, wird alles bestreitbar. Wir beobachten diese Theorie in Echtzeit während eines Krieges, und das ist zutiefst unangenehm.
X kündigte am 4. März eine 90-tägige Aussetzung der Monetarisierung für nicht gekennzeichnete KI-Konfliktinhalte an. Die VAE gingen noch weiter und verhafteten 35 Personen wegen des Teilens KI-generierter Kriegsvideos. Das sind Pflaster auf einer durchtrennten Schlagader.
Wenn ein Journalist vor laufender Kamera von Splittern getroffen wird und die Standardreaktion der Öffentlichkeit Skepsis ist, dann ist etwas Grundlegendes in der Art und Weise, wie wir die Realität verarbeiten, zerbrochen. Shayan Sardarizadeh von BBC Verify deutete an, dass dieser Konflikt den Rekord für die meisten viralen KI-generierten Videos eines Krieges halten könnte. Jemals.
Warum das über die Schlagzeilen hinaus wichtig ist
Der Angriff in der Nähe von Sweeney ereignete sich nur einen Tag, nachdem der Programmdirektor von Al-Manar, Mohamed Sherri, und seine Frau bei einem separaten israelischen Angriff auf das Zentrum von Beirut getötet wurden. Die Sicherheit der Presse in diesem Konflikt verschlechtert sich rapide, und der Nebel aus KI-generiertem Unsinn macht es noch schwieriger, Rechenschaftspflicht herzustellen.
Wir sind in eine Zeit eingetreten, in der der Beweis, dass etwas passiert ist, fast so viel Anstrengung erfordert wie die Berichterstattung selbst. Das sollte jeden beunruhigen, egal wo man auf dem geopolitischen Zaun sitzt.
Das Filmmaterial von Sweeneys Beinahe-Unfall ist echt. Die Verletzungen waren echt. Das Einzige, was an dieser Geschichte künstlich ist, ist die zunehmend gestörte Fähigkeit der Welt, den Unterschied zu erkennen.
Lesen Sie den Originalartikel unter Quelle.

No comments yet. Be the first to share your thoughts.