Geoffrey Hinton, naukowiec nazywany często "ojcem chrzestnym sztucznej inteligencji" odszedł z pracy w Google'u, by ostrzegać przed zagrożeniami związanymi z AI. Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę - powiedział Hinton w wywiadzie dla "New York Timesa".

REKLAMA

Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google'a jest coraz bardziej niebezpieczny - ostrzega naukowiec.

Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca "nie będzie już w stanie odróżnić, co jest prawdą" - uważa Hinton.

Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić - zaznacza rozmówca "NYT" w wywiadzie.

Sztuczna inteligencja zagrożeniem dla ludzkości

Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania - podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni - dodaje.

Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów - ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - ostrzega.

Co możemy zrobić?

Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI. Sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować - konkluduje badacz.

Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google'a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google'a.

Google zachowuje się bardzo odpowiedzialnie - zaznaczył Hinton we wpisie na Twitterze.