Miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak są wśród ponad tysiąca sygnatariuszy listu otwartego, wzywającego do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji (AI) typu ChatGPT. Eksperci i przedstawiciele sektora nowych technologii twierdzą, że co najmniej pół roku przerwy w doskonaleniu tych systemów jest konieczne, by upewnić się, że ich rozwój nie będzie dla nas niebezpieczny.

List, umieszczony na finansowanej przez Muska platformie Future of Life Institute, powstał w reakcji na opublikowanie przez firmę OpenAI nowego modelu języka GPT-4, bardziej zaawansowanej wersji narzędzia stosowanego w ChatGPT, bocie, który udziela odpowiedzi na pytania, prowadzi rozmowy, czy pisze teksty na zamówienie.

W liście zatytuowanym "Pause Giant AI Experiments" autorzy apelują, by wstrzymać na co najmniej pół roku trening systemów potężniejszych niż GPT-4. Ich zdaniem systemy sztucznej inteligencji, zdolne do rywalizacji z człowiekiem, mogą stanowić poważne ryzyko dla ludzkości i społeczeństwa, mogą też mieć wpływ na naszą historię. Dlatego prace nad nimi powinny być planowane i prowadzone należytymi środkami i z odpowiednią uwagą. 

Sygnatariusze listu stwierdzają tymczasem, że ani planowanie, ani zarządzanie tymi pracami nie jest na odpowiednim poziomie, a zajmujące się systemami AI firmy uczestniczą w wyścigu o stworzenie i udostępnienie coraz potężniejszych narzędzi, których działania nikt - włącznie z twórcami - nie jest w stanie w pełni zrozumieć, przewidzieć i niezawodnie kontrolować. Autorzy listu zwracają uwagę, że przyznają to nawet sami twórcy AI. 

W liście czytamy, że w sytuacji, w której współczesne systemy AI mają już w codziennych zadaniach zdolności konkurencyjne ze zdolnościami człowieka, ludzkość musi zadać sobie kilka pytań. Po pierwsze, czy jesteśmy gotowi na to, że maszyny zaleją nasze kanały komunikacyjne propagandą i nieprawdą

Po drugie, czy powinniśmy oddać automatom wszelkie nasze zawody, także te, które lubimy, które dają nam satysfakcję

Czy powinniśmy tworzyć systemy sztucznej inteligencji, które z czasem staną się liczniejsze i inteligentniejsze od nas, a w końcu sprawią, że staniemy się przestarzali i godni wymiany? 

Czy możemy wreszcie ryzykować utratę kontroli nad naszą cywilizacją? 

Jak podkreślają autorzy, odpowiedzi na te pytania nie mogą udzielać - przez nikogo niewybierani - szefowie firm technologicznych. 

Zdaniem autorów, systemy AI o tak potężnych możliwościach mogą być rozwijane dopiero wtedy, gdy będziemy mieli pewność pozytywnych skutków ich działania, a ewentualne ryzyko będzie możliwe do opanowania i ograniczenia. Dlatego wzywają wszystkie zajmujące się sztuczną inteligencją firmy, by w trybie natychmiastowym przerwały na pół roku wszelkie prace polegające na szkoleniu systemów potężniejszych niż dostępny już GPT-4. Ta decyzja powinna obejmować wszystkich głównych twórców systemów AI i powinna być możliwa do weryfikacji. Jeśli decyzji w tej sprawie nie uda się szybko podjąć, w sprawę powinny włączyć się władze państw, by wprowadzić odpowiednie moratorium. 

W ciągu tej półrocznej przerwy firmy AI i niezależni eksperci powinni opracować i wprowadzić w życie zespół współnych procedur bezpieczeństwa, dotyczących zaawanowanego projektowania i rozwoju systemów AI, których przestrzeganie byłoby ściśle kontrolowane przez firmy zewnętrzne. Nie chodzi przy tym o wstrzymanie rozwoju AI w ogóle, ale zaprzestanie wyścigu w tworzeniu modeli o rosnących i trudnych do przewidzenia możliwościach. Badania i rozwój branży AI powinien skupić się na zapewnieniu, że wykorzystywane już coraz bardziej kompetentne systemy są precyzyjne, bezpieczne, przejrzyste, odporne, godne zaufania i lojalne.

6 wyzwań, jakim twórcy systemów AI muszą sprostać

Ten list to nie jest jedyny w ostatnim czasie głos na temat obaw, dotyczących przyszłości naszych kontaktów ze sztuczną inteligencją. Wyniki analiz, dotyczących oddziaływania sztucznej inteligencji na nasze życie i zapewnienia, że nam nie zaszkodzi opublikowała właśnie grupa naukowców pod kierunkiem badaczy z University of Central Florida w Orlando na Florydzie. Na łamach czasopisma "International Journal of Human-Computer Interaction" opisała 6 wyzwań, jakim twórcy systemów AI muszą sprostać, by zapewnić, że nasze relacje ze sztuczną inteligencją będa poprawne i bezpieczne, a jej stosowanie uczciwe i zgodne z etyką. 

Po pierwsze, systemy sztucznej inteligencji powinny być nastawione na dobro człowieka, także komfort korzystania z ich systemów. Po drugie, systemy te powinny odpowiedzialnie działać na rzecz dobra ludzi i społeczeństwa, bez oglądania się na własny interes. Po trzecie, wszelkie procesy zbierania i opracowywania danych musza uwzglednić prawo do prywatności użytkowników, nie mogą się obrócić przeciwko jakimś konkretnym osobom, czy grupom. Po czwarte, systemy powinny być tak zaprojektowane, by same ujawniały, jakie działania z ich pomocą są mniej, a jakie bardziej ryzykowne. W ten sposób sam użytkownik ma mieć świadomość, czego nie powinien robić, czy wręcz robić mu nie wolno. Po piąte, musi powstać jakaś niezależna struktura zarządzająca tymi systemami, niezależnie sprawdzająca trzymanie się zasad. Po szóste wreszcie, kontakt człowieka z systemami sztucznej inteligencji musi odbywać się w sposób dostępny dla naszych zdolności poznawczych tak, by użytkownik przez cały czas był w stanie decydować o jej pracy i odpowiadać, za to, co robi.

Opisane przez nas wyzwania to wezwanie do stworzenia technologii sztucznej inteligencji skoncentrowanej na człowieku, wspierającej jego dobro, której prorytetem będzie etyka, uczciwość w działaniu. To oznacza konieczność odpowiedzialnego, nakierowanego na dobro człowieka projektowania, ochrony prywatności, stworzenia mechanizmów odpowiedniego zarządzania i nadzoru, wreszcie odniesienia się do zdolności poznawczych ludzkiego umysłu - mówi szef zespołu, prof. Ozlem Garibay UCF Department of Industrial Engineering and Management Systems.