Kolejny głos w dyskusji na temat szans i zagrożeń związanych z rozwojem sztucznej inteligencji (AI). Międzynarodowa grupa ekspertów zajmujących się problemami zdrowia publicznego wzywa na łamach czasopisma "BMJ Global Health" do wstrzymania prac nad rozwojem tej technologii do czasu wprowadzenia odpowiednich regulacji prawnych. Ich zdaniem, pewne zastosowania AI mogą przynieść, jak to określają, egzystencjalne zagrożenie dla ludzkości. Przed ponad miesiącem list otwarty wzywający do natychmiastowego wstrzymania prac nad systemami sztucznej inteligencji typu ChatGPT podpisała grupa przedstawicieli sektora nowych technologii, z Elonem Muskiem na czele.

Czasopisma naukowe niemal codziennie przynoszą teraz doniesienia na temat szans związanych z wykorzystaniem technik sztucznej inteligencji na przykład do diagnostyki chorób, w tym nowotworowych. Eksperci pod kierunkiem prof. Davida McCoya z International Institute for Global Health, United Nations University w Kuala Lumpur i dr. Frederika Federspiela a London School of Hygiene & Tropical Medicine przekonują jednak, że pewne zastosowania tych technologii, szczególnie z wykorzystaniem uczącej się technologii AGI (General Artificial Intelligence), mogą stanowić poważne, realne zagrożenie. Ich zdaniem ryzyka związane z nieuczciwym wykorzystaniem AI, a także niezdolnością do przewidzenia, regulacji i dostosowania się do możliwych skutków działania AI dotyczą trzech kluczowych obszarów: demokracji i wolności, pokoju i bezpieczeństwa, zatrudnienia i środków do życia. 

Jak piszą autorzy, pierwsze z tych zagrożeń wiąże się ze zdolnością sztucznej inteligencji do sortowania, analizowania i wykorzystywania prywatnych danych, w tym obrazów. To może być użyte do manipulowania zachowaniem ludzi i w konsekwencji podważanie procesów demokratycznych. Ich zdaniem dochodziło do tego już w przeszłości, w przypadku wyborów 2013 i 2017 roku w Kenii, wyborów prezydenckich w USA w 2016 roku i we Francji w 2017 roku. 

"Systemy sztucznej inteligencji, wyposażone w zdolności do zakłamywania rzeczywistości, na przykład z pomocą technik deep fake, mogą doprowadzić do kryzysu demokracji, zakłócając zaufanie publiczne i nakręcając podziały społeczne. To może mieć znaczenie między innymi dla zdrowia publicznego" - czytamy w artykule.

Oparte na systemach sztucznej inteligencji systemy monitorowania ludności mogą tymczasem dać rządom i innym zainteresowanym czynnikom bezpośrednie możliwości kontroli i wywierania na obywateli presji na kształt wprowadzonego w Chinach Social Credit System. Taka technologia wykorzystuje przy tym zarówno system rozpoznawania twarzy, jak i dostęp do wszelkich danych dotyczących lokalizacji, transakcji finansowych, zapisów policyjnych i relacji społecznych. Autorzy podkreślają, że Chiny nie są tu wyjątkiem. Podobne prace prowadzone są w co najmniej 75 innych krajach, od liberalnych demokracji po reżimy wojskowe. 

Drugi obszar zagrożeń dotyczy - zdaniem autorów publikacji - możliwości tworzenia systemów śmiertelnego uzbrojenia LAWS (Lethal Autonomous Weapon Systems) zdolnych do lokalizacji, śledzenia i eliminacji celów, w tym ludzi, bez nadzoru człowieka. Takie systemy mogą być tanio i na masową skalę produkowane, zintegrowane z różnymi platformami przenoszenia, na przykład dronami i ustawione na zabijanie na niemal przemysłową skalę. 

Trzeci obszar zagrożeń dotyka spraw związanych z zatrudnieniem i utrzymaniem. Zdaniem wielu ekspertów masowe wprowadzenie rozwiązań sztucznej inteligencji może prowadzić do masowych zwolnień pracowników. Tylko w ciągu najbliższej dekady może to dotyczyć setek milionów ludzi. 

"Choć rezygnacja z konieczności wykonywania powtarzalnej, niebezpiecznej, czy nieprzyjemnej pracy może zdawać się pod pewnymi względami korzystna, pojawiające się w związku z tym bezrobocie może mieć dla zdrowia publicznego bardzo poważne skutki" - podkreślono. Dotychczasowe doświadczenia z automatyzacją pracy wskazują - zdaniem autorów - na konsekwentne przesuwanie się dochodów od pracowników do właścicieli kapitału. "Nie wiemy, jaki społeczeństwa zareagują, psychologicznie i emocjonalnie na świat, w którym praca będzie w coraz większym stopniu niedostępna, czy niepotrzebna. Na razie nie myślimy na temat strategii postępowania, które pomogłyby zapobiec niekorzystnym skutkom zdrowotnym bezrobocia" - czytamy. 

Szczególne zagrożenie dotyczy tworzenia uczących się i doskonalących systemów AGI, które teoretycznie mogą zdobyć umiejętności i potem wykonywać wszelkie ludzkie zadania. "Próbujemy tworzyć maszyny, które będą potężniejsze i inteligentniejsze od nas. Potencjał tych maszyn, by tę inteligencję i siłę - celowo lub nie - wykorzystać, by zaszkodzić ludziom lub ich sobie podporządkować, jest realny i powinien być brany pod uwagę. Podłączenie systemów AGI do internetu i wprowadzenie ich z pomocą wszelkiego rodzaju urządzeń, robotów, pojazdów, systemów uzbrojenia, wreszcie komputerów w coraz większym stopniu kontrolujących nasze życie, może okazać się najpoważniejszym wydarzeniem w historii ludzkości. Gwałtowne przyspieszenie badań i rozwoju tych systemów sprawia, że czas dostępny, by zapobiec egzystencjalnym zagrożeniom szybko mija. To jakie będą ostateczne konsekwencje rozwoju systemów AI i AGI zależy od decyzji i regulacji, które musimy wprowadzić teraz, by ograniczyć ryzyko i maksymalizować możliwe pożytki" - piszą autorzy.

Ich zdaniem, w tej sprawie konieczna jest międzynarodowa współpraca i porozumienie, by uniknąć związanego ze sztuczną inteligencją "wyścigu zbrojeń". Jeśli AI ma być pożytkiem dla ludzkości i społeczeństw, musi być poddana skutecznym mechanizmom kontroli. Jak podkreślają, to musi dotyczyć zarówno kompleksu wojskowo przemysłowego, który stoi za rozwojem wielu możliwych zastosowań, jak i mediów społecznościowych, które z wykorzystaniem narzędzi AI mogą przyczyniać się do dezinformacji, podważania instytucji demokratycznych i naruszania prawa do prywatności. 

Opracowanie: