Meta szykuje się do wprowadzenia swojego własnego serwisu mikroblogowania, który ma być konkurencją dla popularnego Twittera. Mowa o nowej aplikacji Threads. W sieci trwa już odliczanie do startu nowej aplikacji. "Nowy Threads od Instagrama zbiera o wiele, wiele więcej danych niż zbiera Twitter. I to jest pierwsza rzecz, która bardzo silnie rzuca się w oczy. Twórcy powiedzieli, że te media będą tak w rozsądny sposób zarządzane, żeby tak troszeczkę dać po nosie Elonowi. Natomiast jak się okazuje, robią to, co zwykle Meta robi, czyli zbierają wszystko, co się da" - mówił w Radiu RMF24 Mateusz Chrobok, ekspert do spraw cyberbezpieczeństwa i sztucznej inteligencji, który był gościem Bogdana Zalewskiego.

Zdaniem gościa Radia RMF24 Mateusza Chroboka, dobrze byłoby, gdyby nowe medium dawało możliwość tzw. interoperacyjności, czyli korzystało z tzw. protokołu rozproszonego. Dzięki temu nawet jeśli ktoś jest w innym miejscu, na innym serwerze, to możesz do niego napisać. Dotrą do niego te wiadomości, co jest piękne w swojej idei, bo nie mamy tej centralizacji, że tylko jedni zbierają dane i tylko jedni mogą cenzurować - tłumaczył ekspert.

Jakie zagrożenia niesie za sobą rozwój najnowszych technologii?

Chrobok zwraca uwagę na fakt, że aplikacjE takie jak Twitter czy Threads mogą z łatwością wpływać na to, co użytkownik widzi. I chętnie wykorzystują tą możliwość, kierując się różnymi pobudkami. Mamy do czynienia z firmą, która sprzedaje zarządzanie uwagą użytkowników - bo tak ostatecznie jest, czy to Twitter, czy to Meta, czy ktokolwiek inny, sprzedaje reklamy, manipulując tym, co się będzie pojawiało w feedzie, czyli w tym, co użytkownik dostanie. Są w stanie wpływać na takich użytkowników. Od niektórych dostaną za to pieniądze, od innych to będą pewnie jakieś przysługi polityczne - powiedział.

Nie jest to jedyne zagrożenie. Zebrane przez algorytmy dane mogą później trafić na czarny rynek. Już teraz znane są przypadki danych pochodzących z kont osób korzystających z Chat GPT, które są przedmiotem handlu w tzw. darknecie. Ej, zobacz, mam tutaj ważną osobę, która piastuje ciekawe stanowisko, to tego sprzedam za 100 dolarów, a przeciętnego Kowalskiego za 5 dolarów, bo ten tam tylko sobie pisał jakieś śmieszki. Więc tak to wygląda - opisuje Chrobok.

Nielegalne zastosowania technologii na tym się nie wyczerpują. Jest jeszcze drugi wątek, który podniósł Europol w niedawnym swoim raporcie, który jest związany z tzw. czarnymi LLMami, czyli large language models. To znaczy oni przewidują, i takie rzeczy pewnie już się dzieją, że będą powstawały coraz to lepsze narzędzia oparte właśnie na takich metodach jak Chat GPT, tylko prywatne, w tzw. darknecie, żeby najlepiej pisać teksty do oszukiwania ludzi, do tworzenia phishingu, lepszych smsów, żeby ludzie w nie klikali - rozwija gość.

Chrobok podkreśla także, że nie do końca wiemy, skąd informacje czerpią modele językowe, z których korzystamy i które na nas oddziałują. Zapytany o możliwość modyfikowania w ten sposób poglądami użytkowników wyjaśnia: Treść przekazana bardzo wpływa na odbiorcę, a tutaj mamy do czynienia nie tylko z filtrowaniem treści źródłowych, no bo firma Open AI nie powiedziała ostatecznie, na czym wyuczyła swoje modele, co jest pierwszą taką czerwoną flagą, a po drugie oni nie mówią wprost o tym, co cenzurują.

Pokazuje ten problem na przykładzie z Chin: Niedawno gruchnęła wiadomość, że tam buduje się w Chinach takiego dużego LLMa. Ja zakładam, że on będzie miał zupełnie inne granice etyczno-moralne niż to, co widzimy w Chat GPT, więc na pewno będzie miało to wpływ na generowanie kolejnych populacji, które będą odpowiednio ukształtowane światopoglądowo, tak jak to ta firma ustali.

Znaczenie ma także kwestia dostępności tego typu technologii

Ekspert, zapytany o sytuacje osób, które nie korzystają z najnowszych rozwiązań, odpowiada: To zaczyna być coraz większe wykluczenie cyfrowe, co przeraża mnie z perspektywy ludzi, którzy mają trudności z pisaniem i czytaniem. A gdzie tam do korzystania z Chat GPT.

Jednak nie tylko takie ograniczenia przewiduje Chrobok. Mam taką smutną konstatację, że będą pewnie takie chatboty, z których będą korzystać normalni ludzie, a pewnie będą chatboty elitarne. Takim przykładem modelu, który powstał, to jest tam Bloomberg GPT, gdzie Bloomberg na danych finansowych wyuczył bardzo duży model i sprzedaje go, bo to jest taki model finansowy. Nie każdy może sobie na niego pozwolić, a on pewnie daje pewną przewagę na rynku - wyjaśniał.

Opracowanie: Dorota Hilger

Po jeszcze więcej informacji odsyłamy Was do naszego internetowego Radia RMF24

Słuchajcie online już teraz!

Radio RMF24 na bieżąco informuje o wszystkich najważniejszych wydarzeniach w Polsce, Europie i na świecie.