Myślicie, że nie dacie się nabrać przez boty w mediach społecznościowych? Mylicie się. Najnowsze badania naukowców z Copenhagen Business School wskazują na to, że współczesne narzędzia sztucznej inteligencji, tworzące zdjęcia i symulujące rozmowy, są na tyle przekonujące, że stworzone z ich pomocą fałszywe konta wydają się bardziej wiarygodne od... prawdziwych użytkowników. Autorzy zaprezentowali swoje wnioski podczas Hawaii International Conference on System Sciences (HICSS).

Jeszcze do niedawna stworzenie rzeczywiście przekonującego konta w mediach społecznościowych było prawdziwym wyzwaniem. Zamieszczane tam fejkowe zdjęcia można było w internecie odszukać i zidentyfikować, a rozmowy były wyraźnie sztuczne. Szybki rozwój narzędzi sztucznej inteligencji sprawia jednak, że dotychczasowe problemy odchodzą w przeszłość. Pokazały to wyniki badań z udziałem 375 ochotników, których zadaniem było rozróżnianie na Twitterze kont prawdziwych od fałszywych. Nie tylko nie radzili sobie z tym zbyt dobrze, ale generalnie bardziej podejrzane wydawały im się konta prawdziwe.

Naukowcy stworzyli twitterowy wątek na temat wojny na Ukrainie, w którym obecne były i rzeczywiste i fejkowe konta, prezentujące opinie popierające każdą ze stron. Fałszywe konta korzystały ze zdjęć profilowych tworzonych przez oparte na sztucznej inteligencji narzędzie StyleGAN, a posty były kreowane przez model językowy GPT-3, ten sam, który stoi za sukcesami głośnego ChatGPT.

"Co ciekawe, największe kontrowersje co do swej natury budziły konta prowadzone przez prawdziwych użytkowników. Jeden z takich prawdziwych profili był oceniany jako bot przez 41,5 proc. uczestników. Z kolei najbardziej udany bot był identyfikowany jako fejkowy profil zaledwie przez 10 proc. badanych" - mówi współautor pracy, dr Sippo Rossi z Copenhagen Business School. "Nasze obserwacje wskazują na to, że technologia pozwalająca na tworzenie fałszywych profili jest już tak zaawansowana, że trudno je odróżnić od prawdziwych". 

"Kiedyś stworzenie realistycznych fałszywych profili wymagało bardzo dużo pracy. Jeszcze pięć lat temu przeciętny użytkownik nie miał dostępu do technologii, która pozwalałaby to łatwo zrobić. Dziś to już jest dostępne, nie dla wybranych, ale dla wielu" - dodaje współautor pracy, Raghava Rao Mukkamala. To otwiera drogę do manipulacji i cyberprzestępstw, które przy wykorzystaniu systemów sztucznej inteligencji, także w mediach społecznościowych, będą miały istotny wpływ na życie społeczne i polityczne. 

Na razie uczestnicy eksperymentu oceniali konkretnego użytkownika na podstawie wpisu i informacji o profilu, autorzy pracy w dalszym etapie pracy będą chcieli sprawdzić, czy skuteczność rozpoznawania botów zmieni się, jeśli w czasie testu możliwe będzie śledzenie wymiany zdań między realnymi i fejkowymi profilami. "Musimy szukać nowych sposobów radzenia sobie z tym problemem. Jeśli ludzie nie będą w stanie sami zidentyfikować botów, trzeba będzie opracować system ich automatycznej detekcji i weryfikacji przez operatorów portali społecznościowych" - dodaje Sippo Rossi.

Na razie - jego zdaniem - na portalach społecznościowych można ufać tylko profilom, które znamy.