"Sztuczną inteligencję można wykorzystać do wyłapywania fake newsów, do rozwinięcia tych dosyć sztywnych zasad moderacji, które mamy. Oczywiście to jest niebezpieczne i trzeba uważać, żeby jej nie nadużywać, żeby nie ograniczała ona wolności słowa" - mówił w internetowym Radiu RMF24 Bartosz Paszcza, ekspert do spraw IT z Klubu Jagiellońskiego. Elon Musk, który w ostatnim czasie krytykował Chat GPT, jak podaje amerykański Business Insider, rozwija szeroko zakrojony projekt związany ze sztuczną inteligencją, który ma być wykorzystywany na Twitterze.

REKLAMA

Twoja przeglądarka nie obsługuje standardu HTML5 dla audio

​Paszcza: Sztuczna inteligencja może popchnąć naszą cywilizację do przodu

Z jednej strony Elon Musk wzywa do tego, żeby wstrzymać prace nad AI na pół roku, ale równocześnie sam prowadzi badania w tej sprawie i wprowadza je do Twittera, co w sferze praktycznej jest ze sobą sprzeczne.

Chyba wszyscy zaangażowani w rozwój, w wykorzystanie, szczególnie biznesowo, są trochę za i chcieliby na tym skorzystać. Chcieliby tę technologię rozwijać, a trochę coraz głośniej słychać, że każdy jednocześnie z tyłu głowy zastanawia się nad tym, co złego może się wydarzyć - mówił gość Tomasza Terlikowskiego w internetowym Radiu RMF24.

List podpisany nie tylko przez Elona Muska, ale również przez dziesiątki innych osób zainteresowanych sztuczną inteligencją, wydaje się być niepraktyczny, gdyż ciężko wstrzymać badania na pół roku. Nie wiadomo, jak miałoby zostać to skontrolowane. Nie tylko Elon Musk, ale i wszyscy inni dookoła chcieliby prowadzić badania i rozwój. Więc tak naprawdę ciężko mi odgadnąć intencje autorów tego listu. Co oni tak naprawdę chcą osiągnąć. Ich podstawa rozumowania jest sensowna, bo jakieś obawy mamy, ale mamy co do tego, jak ta sztuczna inteligencja zamienia się w produkty i jak my możemy z niej korzystać. I to jest zrozumiałe. Ale badań i rozwoju nie da się tak prosto zatrzymać - komentował Bartosz Paszcza.

Rozwoju pisma też się kiedyś obawiano

Jak zauważył prowadzący Tomasz Terlikowski, czym różni się sztuczna inteligencja od komputerów, które działają już od lat, i które kiedyś też budziły obawy? Czym różni się od pisma, które kiedy wchodziło w życie, Platon mówił, że to kompletnie zabije zarówno naukę, inteligencję, jak i, przede wszystkim, pamięć? Okazało się, że dzięki pismu wiemy cokolwiek o jego nauczaniu.

Pismo, a później druk to są bardzo ciekawe przykłady różnych obaw, które się nie do końca sprawdziły, albo się w ogóle nie sprawdziły, ale też pokazują, jak te nowe technologie rozpowszechniania wiedzy potrafią nas popchnąć do przodu. Myślę, że ze sztuczną inteligencją wszyscy liczymy na to, że będzie tak samo. Sztuczna inteligencja charakteryzuje się tym, że jest w stanie o wiele szybciej przerobić duże zasoby danych, co naszemu umysłowi zajęłoby długie godziny. W tym sensie wyciągając z tego jakieś wnioski, czy wykorzystując te różne zgromadzone dane czy informacje, które ludzkość wyprodukowała, może być wspaniałym narzędziem do naszej pomocy - podkreślał ekspert Klubu Jagiellońskiego.

Czy powinniśmy bać się AI?

Dezinformacja jest jedną obawą. Drugą bardzo ważną wadą jest to, że to są modele językowe. One są bardzo sprawne w gramatyce, ale nie potrafią rozróżniać fałszu od prawdy. To, co one przekazują, niekoniecznie ma odzwierciedlenie w jakiejkolwiek rzeczywistości czy faktach. To oczywiście powoduje, że wzbudzają nasze zaufanie. A jak zaczynamy im ufać, to okazuje się, że to, co nam właśnie odpowiedziały, czy co nam przekazały, może zupełnie nie być prawdziwe - mówił ekspert.

Fake newsy to nie tylko kwestia sztucznej inteligencji, ale zupełnie naturalna inteligencja, która wsparta erystyką, potrafi kłamać jeszcze lepiej.

Tutaj chodzi o skalę. Liczba ludzi, którzy są na tyle sprawni narracyjnie, że są w stanie wyprodukować fake newsy i przekonać ludzi, żeby ich śledzili, jest dosyć ograniczona. Natomiast liczba interfejsów sztucznej inteligencji, które możemy podpiąć do mediów społecznościowych, jest bardzo nieograniczona. Zachęcam każdego do spróbowania się w rozmowie z taką inteligencją. Ona naprawdę opowiada przekonująco, odpowiada jak człowiek. To jest dokładna, czasami nawet zabawna odpowiedź, która stosuje reguły języka i która często przypomina właśnie to, co inny człowiek napisałby nam na czacie - mówił Paszcza.

Możemy obawiać się tego, że w tej chwili rozmaita propaganda może przybrać formy absolutnie wcześniej niespotykane.

Z jednej strony może się to wydarzyć intencjonalnie, to znaczy mogą być jacyś aktorzy, jakieś instytucje, które będą chciały to wykorzystać, a z drugiej nieintencjonalnie, dlatego że właśnie sztuczna inteligencja nie ma mechanizmu rozróżniania prawdy od fałszu. Na szczęście sztuczną inteligencję można wykorzystać do wyłapywania fake newsów, do rozwinięcia tych dosyć sztywnych zasad moderacji, które mamy. Oczywiście to jest niebezpieczne i trzeba uważać, żeby nie nadużywać sztucznej inteligencji, żeby nie ograniczała ona wolności słowa. Jednym z problemów moderacji treści w Internecie jest to, że fake newsy rozchodzą się szybciej niż ich korekta. Właśnie taka sztuczna inteligencja mogłaby pozwolić człowiekowi wyłapać i skontrować, sprostować nieprawdziwe informacje, zanim się szeroko rozejdą. To jest nadzieja na to, że sztuczna inteligencja może nam nie tylko wprowadzać chaos, ale też naprawdę może popchnąć naszą cywilizację, naszą publiczną dyskusję, nasze demokracje do przodu - podkreślał.

Nie da się zatrzymać prac nad AI

Trudno sobie wyobrazić, żeby nagle informatycy, specjaliści od sztucznej inteligencji przestali ją badać. Nawet gdyby w niektórych krajach zakazano jej rozwoju, jakieś demokratyczne państwo postanowiłoby ograniczyć tego typu badania, to na świecie mamy tak dużo państw niedemokratycznych, które chętnie by je poprowadziły. Być może trzeba szukać rozwiązań prawnych, które będą regulować ten rynek.

Bardzo trudno sobie wyobrazić, że dzisiaj zakazujemy badań. Nie wiem, jak ten zakaz można wdrożyć, nie wiem, jak go egzekwować i nie wiem, w jakim zakresie go opisać. Możemy oczywiście tworzyć sobie zakazy np. dotyczące danych, na których nie kształcimy algorytmów i to mogą być dane stanowiące tajemnicę przedsiębiorstw czy dane osobiste ludzi. Częściowo oczywiście takie regulacje mamy już w toku. Ostatnio w dyskusji dwie gwiazdy rozwoju sztucznej inteligencji Andrew Y. Ng i Joanne Kuhn podsunęli ciekawy pomysł, że nie ma co tamować badań i rozwoju, bo to jest praktycznie niemożliwe, szczególnie przy zachętach i różnych systemach politycznych. Ale możemy ingerować w to, co staje się produktem, co jako produkty dopuszczamy na rynek. Wydaje się, że podobne podejście do tego sprawdzenia trafiających już na rynek produktów jest o wiele bardziej sensowne czy słuszniejsze niż bardzo fikcyjne i nieegzekwowalne zatrzymywanie badań naukowych - mówił Bartłomiej Paszcza.

Opracowanie: Emilia Witkowska