Gdy prawdziwe nagranie nazywane jest fałszywką: izraelski atak na brytyjskiego dziennikarza, który okazał się przerażająco autentyczny

Gdy prawdziwe nagranie nazywane jest fałszywką: izraelski atak na brytyjskiego dziennikarza, który okazał się przerażająco autentyczny

Bardzo prawdziwa eksplozja w bardzo fałszywym świecie

Oto absurdalna rzeczywistość relacjonowania konfliktów w 2026 roku: brytyjski dziennikarz omal nie ginie w wybuchu przed kamerą w południowym Libanie, a pierwsze pytanie, jakie zadają miliony ludzi, nie brzmi "Czy nic mu nie jest?", lecz "Czy to w ogóle jest prawdziwe?".

19 marca 2026 roku korespondent RT, Steve Sweeney, oraz operator Ali Rida Sbeity relacjonowali sytuację w pobliżu mostu Al-Qasmiya, na północ od Tyru w południowym Libanie, kiedy izraelski nalot uderzył zaledwie kilka metrów od ich pozycji. Nagranie jest wstrząsające. Jest również, jak podkreśliło BBC po weryfikacji, całkowicie autentyczne.

Fakt, że duże media poczuły się zmuszone do umieszczenia w tytule informacji "nie wygenerowane przez AI", mówi wszystko o krajobrazie informacyjnym, w którym się obecnie poruszamy.

Co tak naprawdę się stało

Obaj dziennikarze doznali obrażeń od odłamków w wyniku uderzenia i trafili do szpitala. Sbeity potwierdził później w osobnym nagraniu, że obaj wracają do zdrowia. Komitet Ochrony Dziennikarzy (CPJ) potępił incydent, a dyrektor regionalna Sara Qudah nazwała go naruszeniem prawa międzynarodowego.

Reakcja IDF była charakterystycznie wyważona w tonie, jeśli nie w kwestii użytej broni. Stwierdzono, że "wydano wyraźne ostrzeżenie dotyczące tego obszaru" oraz że przeprawa "została zaatakowana po upływie wystarczającego czasu od wydania ostrzeżeń". IDF utrzymuje, że most był uzasadnionym celem wykorzystywanym przez Hezbollah do przerzutu broni.

Warto zauważyć, że Sweeney pracuje dla RT, finansowanych przez rosyjskie państwo mediów, których redaktor naczelna Margarita Simonian określiła atak jako celowe uderzenie w prasę. To, czy dziennikarze byli konkretnym celem, pozostaje niezweryfikowane przez niezależne źródła, choć bliskość uderzenia wobec wyraźnie zidentyfikowanego personelu prasowego rodzi poważne pytania.

Kryzys dezinformacji AI, który pożera ten konflikt

Powód, dla którego BBC oparło swój nagłówek na autentyczności, nie jest dziwactwem redakcyjnym. To konieczność. Od momentu rozpoczęcia konfliktu USA-Izrael-Iran 28 lutego 2026 roku, dezinformacja generowana przez AI osiągnęła poziom bez precedensu.

Liczby są oszałamiające. BBC Verify zidentyfikowało ponad 110 unikalnych postów wygenerowanych przez AI w ciągu zaledwie pierwszych dwóch tygodni walk. Jedno sfabrykowane nagranie, mające rzekomo pokazywać pociski uderzające w Tel Awiw, pojawiło się w ponad 300 postach i zdobyło dziesiątki milionów wyświetleń.

Ale tutaj robi się naprawdę dziwnie. Problemem nie jest tylko to, że ludzie wierzą w fałszywe treści. Problemem jest to, że prawdziwe treści są odrzucane jako fałszywki. Chatbot Grok z platformy X został przyłapany na obu tych zachowaniach: potwierdzaniu autentyczności nagrań wygenerowanych przez AI oraz oznaczaniu prawdziwych filmów jako deepfake'i. Gdy w sieci krążyło autentyczne nagranie Benjamina Netanjahu w kawiarni, Grok z pewnością siebie ogłosił, że zostało wygenerowane przez AI. Ekspert od weryfikacji Tal Hagin stwierdził wprost, że detektorom AI "nie można ufać".

DFRLab przy Atlantic Council odkryło ponad 300 sprzecznych odpowiedzi udzielonych przez Groka w odniesieniu do jednego nagrania. To nie jest narzędzie. To rzut monetą z dodatkowymi komplikacjami.

"Dywidenda kłamcy" w pełnym rozkwicie

Badacze bezpieczeństwa od dawna ostrzegali przed "dywidendą kłamcy" związaną z technologią deepfake: gdy ludzie wiedzą, że fałszywki istnieją, wszystko można zanegować. Obserwujemy, jak ta teoria sprawdza się w czasie rzeczywistym podczas trwającej wojny, i jest to głęboko niepokojące.

X ogłosiło 90-dniowe zawieszenie monetyzacji dla nieoznaczonych treści dotyczących konfliktów generowanych przez AI 4 marca. Zjednoczone Emiraty Arabskie poszły o krok dalej, aresztując 35 osób za udostępnianie wojennych nagrań wygenerowanych przez AI. To tylko plastry na przeciętą tętnicę.

Kiedy dziennikarz zostaje trafiony odłamkami przed kamerą, a domyślną reakcją opinii publicznej jest sceptycyzm, pękło coś fundamentalnego w sposobie, w jaki przetwarzamy rzeczywistość. Shayan Sardarizadeh z BBC Verify zasugerował, że ten konflikt może pobić rekord pod względem liczby viralowych nagrań wygenerowanych przez AI w jakiejkolwiek wojnie. W historii.

Dlaczego to ważne poza głównymi nagłówkami

Atak w pobliżu Sweeneya wydarzył się zaledwie dzień po tym, jak dyrektor programowy Al-Manar, Mohamed Sherri, i jego żona zginęli w osobnym izraelskim nalocie na centrum Bejrutu. Bezpieczeństwo prasy w tym konflikcie drastycznie się pogarsza, a mgła nonsensów generowanych przez AI sprawia, że rozliczalność jest jeszcze trudniejsza do ustalenia.

Weszliśmy w okres, w którym udowodnienie, że coś się wydarzyło, wymaga niemal tyle samo wysiłku, co samo relacjonowanie. To powinno martwić każdego, niezależnie od tego, po której stronie jakiegokolwiek geopolitycznego ogrodzenia siedzisz.

Nagranie z bliskiego spotkania Sweeneya jest prawdziwe. Obrażenia były prawdziwe. Jedyną sztuczną rzeczą w tej historii jest coraz bardziej upośledzona zdolność świata do odróżniania prawdy od fałszu.

Przeczytaj oryginalny artykuł pod adresem źródła.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.