W ostatnich dniach OpenAI uruchomiło nową wersję sztucznej inteligencji ChatGPT, który działa na bardziej rozbudowanym modelu językowym GPT wersja 4. Jego możliwości - według pierwszych - ocen są imponujące. "Sztuczna inteligencja posiada jednak coś takiego, jak halucynacje. Potrafi po prostu wymyślać rzeczy, których nie ma i - mało tego - nie ma świadomości, że zmyśla. Teraz pojawia się pewien problem. Skąd my mamy wiedzieć, czy to, co dostajemy, to są dane naukowe, czy to są właśnie halucynacje? To jest coś, przed czym twórcy AI ostrzegają" - mówił w internetowym Radiu RMF24 Jakub Mrugalski, ekspert od cyberbezpieczeństwa i nowych technologii.

Krzysztof Urbaniak: Czy ta najnowsza wersja pozwala nie tylko wymieniać tekstowe zdania, ale jest też zdolna do bardziej abstrakcyjnego myślenia i interpretowania np. obrazów czy filmów? Czy pana czymś szczególnie zachwyciła? 

Jakub Mrugalski: Tutaj mamy takie zderzenie trzech światów. Pierwsza rzecz, to jest to, co nam obiecano w wersji 4 GPT, druga rzecz to, czego oczekiwali ludzie, a trzecia - co dostaliśmy realnie. To się trochę różni. Chodzi o to, że w tym momencie, gdy to nagrywamy, nie dostaliśmy pełnej wersji czatu w wersji GPT 4. Być może państwo widzieli np. prezentację rozpoznawania dźwięku, rozpoznawania obrazu, tak zwana multimodalność. Nowa wersja czatu powinna pobierać wejścia nie tylko w wersji tekstowej, ale też graficznej, dźwiękowej, być może jeszcze w wersji filmowej, w zależności jak się to rozwinie. Ale tak jak mówię - powinna. To jest to, co wersja demonstracyjna nam pokazała, że takie będą możliwości. Ale co dostaliśmy? Aktualnie dostaliśmy tylko bardziej rozbudowaną wersję tekstową. I teraz - kto to dostał. Dostali to na razie użytkownicy wersji premium Chat GPT, czyli jeżeli ktoś płaci 20 dolarów miesięcznie, to faktycznie może teraz kliknąć na wersję GPT4 i spróbować korzystać z tego. Zadał pan pytanie, co mnie tutaj zachwyciło. Dla normalnego, przeciętnego użytkownika różnica może być dość niezauważalna, ale jeżeli ktoś jest np. programistą, pracuje nad bardziej zaawansowanymi problemami do rozwiązania, to w takim razie zauważy, że nowa wersja GPT 4 jest bardziej inteligentna, to znaczy lepiej rozumie problem jaki jej zadajemy i lepiej daje odpowiedź na ten problem. Ja, jako osoba programująca, dawniej, gdy pytałem np. wersję GPT w wersji 3.5, dostawałem dość dobrą odpowiedź. O ile dobrze zadałem pytanie. Ale czasami musiałem walczyć z taką próbą zrozumienia mnie, to znaczy wyrażenie tego samego innymi słowami, aby dostać dobrą odpowiedź. Teraz nagle okazuje się, że mój rozmówca wirtualny nagle zmądrzał, zyskał nowe możliwości rozumienia tego, co ja do niego mówię.

A co potrafi? Czytam, że jeżeli wyślemy GPT 4 zdjęcie wnętrza swojej lodówki, to poprawnie zidentyfikuje jej zawartość, zrobi analizę, co można przygotować z tych składników, zaoferuje szereg przepisów, a nawet poda przewodnik krok po kroku, jak przygotować ewentualne dania. 

Jak najbardziej będzie to możliwe. Dlaczego? Dlatego, że właśnie ta tzw. multimodalność, czyli możliwość wczytywania różnego rodzaju imputu do środka, będzie w stanie rozpoznać np. co jest na zdjęciu. Jeżeli wrzucimy zdjęcie naszej lodówki, nie będzie ona pusta, tylko będzie zawierała wiele różnych rzeczy do jedzenia, możemy zapytać wprost, co ja z tego mogę przyrządzić. Czym to się różni od tego, gdybyśmy wypisali to tekstowo i zapytali o to samo? Absolutnie niczym. Nowym wejściem do Chat GPT jest teraz obraz, więc równie dobrze możemy pokazać dzieło sztuki i zapytać co to jest, albo właśnie lodówka - co ja z tym mogę zrobić. Absolutnie dowolna rzecz, która jest do opisania przez sztuczną inteligencję z tego obrazka, więc da się to zrobić. 

Technologiczni giganci już zaczynają wykorzystywać sztuczną inteligencję w znanych nam narzędziach, na przykład edytorach tekstu, skrzynkach pocztowych, programach do tworzenia prezentacji. Co już teraz może za nas zrobić sztuczna inteligencja w pracy? 

Może redagować teksty np. wrzucamy tekst, który jest napisany trudnym językiem i możemy poprosić o przepisanie tego na wersję bardziej zrozumiałą dla ludzi, albo zmienić formę tego tekstu, czyli takie tradycyjne operacje na tekście. Możemy też szukać inspiracji, to znaczy chcę napisać artykuł na temat X i mogę zapytać sztuczną inteligencję jakie tematy powinienem poruszyć. Wtedy mam inspirację, co ja powinienem napisać w tym artykule. Mogę jeszcze odpytywać o rzeczy, które są powszechnie znane, przy czym tutaj należy bardzo uważać na to, że sztuczna inteligencja posiada coś takiego, to jest taka wada tej sztucznej inteligencji, jak halucynacje. To się tak fachowo nazywa. Potrafi po prostu wymyślać rzeczy, których nie ma i mało tego, nie ma świadomości, że zmyśla. Możemy zapytać o jakąś rzecz, czy na przykład jakaś rzecz do jedzenia jest zdrowa, czy też niezdrowa i dostaniemy odpowiedź tak, jest zdrowa. A czy są jakieś badania naukowe na ten temat? Oczywiście. I dostaniemy całą bibliografię badań naukowych. Tylko tutaj uwaga. Część z nich może nie istnieć, ale gdy zapytamy o to badanie naukowe, czy możesz mi powiedzieć, co to badanie jeszcze mówi, dostaniemy dalszą część tej halucynacji i to cały czas będzie brnąć głębiej i głębiej. Teraz pojawia się pewien problem. Skąd my mamy wiedzieć, czy to, co dostajemy, to są dane naukowe, czy to są właśnie halucynacje? To jest to coś, przed czym twórcy AI ostrzegają. Trzeba tutaj być bardzo ostrożnym, bo jeżeli zapytamy o prostą rzecz, daj mi przepis na jakieś danie, to zagrożenie jest niewielkie. Ale gdy zapytamy o jakieś rzeczy bardziej wrażliwe, które mogą mieć wpływ na nasze życie, zdrowie, to tutaj sporo ryzykujemy. 

Trzeba się po prostu znać na tematach, o które chcemy zapytać. Na filmie promocyjnym firmy Open AI możemy zobaczyć, że ich narzędzie potrafi stworzyć stronę internetową z niechlujnych zapisków na kartce papieru. Czy programiści drżą już o swój los? 

Moim zdaniem niesłusznie. Co prawda sztuczna inteligencja może stworzyć stronę internetową według zapisków, według jakiegoś szkicu, według jakiejkolwiek formy opisu, tylko jeżeli chcemy taką stronę następnie skastomizować, czyli dostosować do swoich potrzeb, ulepszyć w jakiś sposób, to tutaj może być pewien problem. Sztuczna inteligencja potrafi zrobić coś, co wygląda tak jak chcemy, niekoniecznie działa tak jak chcemy. Jednocześnie czasami może być problem wydajnościowy. Jeżeli tworzymy usługę, z której będzie korzystać wiele tysięcy osób, to okaże się, że ten kod stworzony przez sztuczną inteligencję, on działa, tylko kiepsko. To zupełnie może nie nadawać się do tzw. rozwiązań produkcyjnych, więc programiści, na razie, nie powinni być tutaj zagrożeni. Musimy sobie uświadomić jeszcze jedną rzecz. Co naprawdę robi programista? Programista pisze programy. To jest tak, jakby powiedzieć, że dziennikarz pisze tekst i teraz może go zastąpić Chat GPT, ale pracą dziennikarza jest np. zrobienie researchu, przygotowanie do danego tematu, zbadanie całości, pozbieranie tego i napisanie artykułu to jest koniec jego pracy. W przypadku programisty jest dokładnie tak samo. Napisanie kodu programu to jest ten wielki wierzchołek góry lodowej. Programista tak naprawdę robi analizę potrzeb klienta, sprawia, żeby to działało w miarę dobrze, sprawnie i wydajnie przede wszystkim. Na razie sztuczna inteligencja umie zrobić ten wierzchołek góry lodowej. Wygeneruje nam kod, ale to samo może zrobić nawet jakiś stażysta. Więc w takim razie zaawansowani programiści nie powinni się bać, a ci bardzo początkujący, no faktycznie mogą być przez taki algorytm ewentualnie zastąpieni. 

Programiści nie muszą się bać o swój los, a dziennikarze radiowi? 

Tym bardziej nie. Jak pan wie, to jest praca bardziej złożona i co prawda sztuczna inteligencja może generować głos, może robić za lektora, może wygenerować tekst, który będzie do powiedzenia, ale całej reszty pracy, którą ma do wykonania taki redaktor, tego nie wykona. Więc człowiek jest na razie niezastąpiony. 

Jak drogie obecnie są te narzędzia, jeżeli ja chciałbym z nich skorzystać? 

Odpowiedź brzmi: to zależy. Najprostsza wersja skorzystania z Chat GPT to jest wersja darmowa. Po prostu zakładamy konto, weryfikujemy się i korzystamy. Wada tego rozwiązania jest taka, że musimy czekać w kolejce. Jeżeli akurat w godzinach szczytu dochodzimy do tego Chat GPT, może okazać się, że dostaniemy komunikat "proszę poczekać" i to proszę poczekać może trwać 10 sekund, to może trwać 15 minut i to będzie trochę niekomfortowe. Możemy kupić sobie wersję plus i zapłacić 20 dolarów i wtedy mieć Chat GPT na zawołanie. Możemy też skorzystać z czegoś takiego jak API programistyczne i wtedy już płacimy nie miesięczną opłatę,  a w zależności od tego, jak często zadajemy pytania, jak dużo tych pytań jest i jak długiej odpowiedzi oczekujemy. Tutaj jest już cennik bardziej złożony, ale może nie wnikajmy w to.

Ten wyścig w ostatnich miesiącach wydaje się toczyć w niesamowitym tempie. My, użytkownicy, będziemy w stanie za tym nadążyć? 

Pytanie czy my musimy za tym nadążyć. Tak naprawdę to, co się dla nas zmienia, to jest to, że uzyskujemy coraz lepsze odpowiedzi. Forma naszej komunikacji ze sztuczną inteligencją się nie zmienia, więc osoby, które powinny się martwić, to są ewentualnie programiści. Ja, jako osoba pracująca, też jako programista i jako użytkownik sztucznej inteligencji, trochę martwię. Dlaczego? Dlatego, że ja skończyłem dopiero co uczyć się Chat w wersji 3.5 i nagle powstaje czwórka. Jest w miarę kompatybilna, ale jednak nie jeden do jednego. Z punktu widzenia normalnego użytkownika dostajemy coraz lepszy produkt i powinniśmy się cieszyć. Tak to obecnie wygląda. 

Coraz mocniej zbliżamy się do tego wyobrażenia sztucznej inteligencji znanego nam z filmów science fiction. Czy za chwilę obudzimy się w nowej rzeczywistości? 

Na razie nam to nie grozi, ale co będzie za kilka lat, tego nikt nie wie. Dlaczego nam to nie grozi? Dlatego, że aktualne modele AI, to są takie zamknięte puszki. Nie mają dostępu do internetu, nie zaciągają danych z zewnątrz, nie mają też wpływu na to, co nas otacza, czyli nie są w stanie sterować np. inteligentnym domem i innymi takimi rzeczami. W momencie, gdy to mówię, jeszcze nam to nie grozi. Ale tak jak już wiemy Microsoft sprzężył sobie GPT 4 z Bingiem i teraz już ta wersja w sztucznej inteligencji ma dostęp do internetu. Już poszliśmy krok dalej. Pytanie brzmi, co będzie jeszcze dalej. Google pracuje nad swoją wersją, więc tak naprawdę to się tak szybko rozwija, że równie dobrze to, co mówię teraz, może okazać się nieprawdą już za miesiąc, za dwa. Trudno mi powiedzieć, ale aktualnie nie mamy się czego bać. 

A istnieje jakieś niebezpieczeństwo, jakieś zagrożenie dla nas? 

Bezpośrednio zagrożenie nie istnieje. Sztuczna inteligencja to nie jest Skynet, który atakuje, ale sztucznej inteligencji oddajemy pewną kontrolę. Coraz więcej firm stara się, aby np. sztuczna inteligencja w jakiś sposób przejęła ich procesy biznesowe, czyli podejmowała decyzje, aktywowała pewne procesy w fabrykach. Na tej zasadzie. I teraz, jeżeli będzie miała dalej te błędy, które ma, czyli wspomniane halucynacje, to może się zdarzyć, że coś dziwnego się stanie. Przykładowo ktoś mógłby chcieć użyć sztucznej inteligencji GPT 4 albo 5, jak powstanie, załóżmy przy wyrokach sądowych i okazuje się, że wyrok będzie podjęty na podstawie halucynacji, a nie na podstawie faktów. I co wtedy? Musimy na to uważać i wtedy to już ma wpływ na ludzkie życie. Wtedy może być nieciekawie. 

Wszystko musi być pod kontrolą. A czy dzięki temu chatowi nie stajemy się mniej mądrzy? 

To zależy. Jeżeli będziemy używali Chat GPT po prostu metodą "kopiuj i wklej", to zdecydowanie tak. Nasz mózg będzie rozleniwiony i to nie będzie na naszą korzyść. Ale jeżeli użyjemy tego, jako kolejnego narzędzia, to w takim razie to może nas wspomóc, czyli sprawić, że człowiek będzie w stanie osiągać więcej w krótszym czasie. Mam nadzieję, że ludzie w ten sposób będą do tego podchodzić, jako do narzędzia, a nie jako do czegoś, co nas wyręcza.


Oprac. Emilia Witkowska

Po jeszcze więcej informacji odsyłamy Was do naszego internetowego Radia RMF24

Słuchajcie online już teraz!

Radio RMF24 na bieżąco informuje o wszystkich najważniejszych wydarzeniach w Polsce, Europie i na świecie.