Obrazek wygenerowany przez sztuczną inteligencję posłużył internautom do szerzenia fałszywych informacji na temat zamachu, do którego doszło w Australii - informuje redakcja BBC. Wystarczy przyjrzeć się bliżej, by zauważyć, że osoby przedstawione na obrazku mają zdeformowane dłonie, co stanowi kluczowy element w rozpoznaniu ingerencji AI.
- Chcesz być na bieżąco? Odwiedź stronę główną RMF24.pl
W wyniku ataku dwóch napastników - ojca i syna - na plaży Bondi w Australii zginęło 16 osób. Tragedia została wykorzystania do szerzenia fałszywych informacji w internecie.
BBC zwraca szczególną uwagę na obraz, wygenerowany przez sztuczną inteligencję, który ma być "dowodem" na to, że strzelanina na plaży była inscenizacją. Widać go we wpisie z platformy X poniżej i TUTAJ:
This AI image is going viral to prove that the Bondi Beach shooting didnt actually happen and Arsen Ostrovsky faked being shot in the head.The makeup artist has extra fingers and Arsens shirt has gibberish letters on it.X needs to flag accounts that push this stuff. pic.twitter.com/KErF6oIAmV
MaxNordauDecember 15, 2025
Wygenerowany obrazek przedstawia jedną z ofiar ataku, której makijażysta nakłada sztuczną krew na planie filmowym, prawdopodobnie obok plaży. BBC wskazuje, że ta "ofiara" przypomina izraelskiego prawnika Arsena Ostrovsky’ego. Kula otarła się o głowę mężczyzny, a on pokazał zdjęcia swoich obrażeń w mediach społecznościowych.
Obrazek został wykorzystany w setkach wpisów na różnych platformach społecznościowych, aby tezę, że strzelanina była tzw. atakiem "pod fałszywą flagą", czyli inscenizacją. Widać na nim jednak pewne niedociągnięcia.
Arsen Ostrovsky udzielił wywiadu australijskiej stacji 9 news. Widać na nim, że mężczyzna ma koszulkę z napisem "United States Marines" i logiem tych sił wojskowych. Na obrazku logo i napis są jednak zniekształcone. Plamy z krwi też nie odpowiadają tym, które są widoczne na nagraniu z wywiadu z mężczyzną.
Widać też, że Ostrovsky wywiadu udziela w krótkich spodenkach. Na wygenerowanym obrazku ma długie jeansy.
W górnej części obrazka widać też zdeformowane dłonie rzekomej ekipy, która ma filmować rzekomą inscenizację. Samochód w tle też wygląda nienaturalnie. BBC podkreśla jednak, że niektórzy internauci przycinali zdjęcie tak, by budzących największe wątpliwości części obrazka nie było widać.
Kolejne przekłamania wylicza portal Deutsche Welle. Jednym z najgłośniejszych przykładów dezinformacji była fałszywa identyfikacja bohatera, który rozbroił jednego z napastników. W mediach społecznościowych, zwłaszcza na platformie X (dawniej Twitter), szeroko udostępniano posty, według których miał nim być Edward Crabtree, lokalny właściciel sklepu z owocami. Informacja ta pochodziła z mało znanej strony internetowej, zarejestrowanej tuż po ataku, i nie miała żadnego potwierdzenia w oficjalnych źródłach. W rzeczywistości, jak potwierdził australijski minister spraw wewnętrznych Tony Burke, mężczyzną, który wykazał się odwagą, był Ahmed al Ahmed - 43-letni Syryjczyk, który od lat mieszka w Australii. Jego tożsamość została potwierdzona przez władze oraz rodzinę, a premier Nowej Południowej Walii nazwał go "prawdziwym bohaterem".
Kolejnym przykładem dezinformacji było błędne powiązanie wizerunku niewinnego mężczyzny z atakiem. W sieci pojawiły się zestawienia zdjęć, sugerujące, że mężczyzna w zielonej koszulce jest jednym z napastników. Sam zainteresowany stanowczo temu zaprzeczył, publikując oświadczenie i wyjaśniając, że nie ma żadnego związku z zamachem. Analiza zdjęć oraz raport policyjny potwierdziły, że jest to zupełnie inna osoba, a jego wizerunek został wykorzystany bezprawnie, co naraziło go na poważne konsekwencje osobiste.
W internecie pojawiły się także filmy rzekomo przedstawiające napastników spacerujących po plaży przed atakiem. Jeden z takich klipów, który zdobył setki tysięcy wyświetleń na TikToku, okazał się być materiałem wygenerowanym przez sztuczną inteligencję. Analiza nagrania wykazała powtarzalność elementów, nienaturalne cienie oraz inne typowe dla AI artefakty. Porównanie z rzeczywistymi zdjęciami Bondi Beach potwierdziło, że przedstawione wideo nie odzwierciedla rzeczywistości.