W obliczu rosnącej obecności sztucznej inteligencji (AI) w naszym codziennym życiu dyskusje na temat potencjalnych zagrożeń, jakie niesie ze sobą jej rozwój, stają się coraz bardziej intensywne. Najnowsze badania przeprowadzone przez zespół politologów z Uniwersytetu w Zurychu rzucają nowe światło na to, jak to ryzyko postrzegamy. Okazuje się, że i w tym przypadku bliższa koszula ciału, większość jest bardziej zaniepokojona bezpośrednimi zagrożeniami wynikającymi z działania sztucznej inteligencji niż teoretycznymi, apokaliptycznymi scenariuszami przyszłości. Pisze o tym w najnowszym numerze czasopismo "Proceedings of the National Academy of Sciences".

Badanie, w którym wzięło udział ponad 10 000 ochotników z USA i Wielkiej Brytanii, miało na celu zrozumienie, jak różne prezentacje możliwych scenariuszy związanych ze stosowaniem AI - od katastroficznych wizji po konkretne obecne zagrożenia - wpływają na postrzeganie ryzyka związanego z tą technologią. 

Uczestnikom eksperymentów prezentowano różnorodne informacje, od tych malujących AI jako zagrożenie egzystencjalne, po informacje o możliwościach dyskryminacji czy dezinformacji generowanej przez AI, a także potencjalnych korzyściach płynących z jej rozwoju. Okazało się, że respondenci wyrażali znacznie większe zaniepokojenie bieżącymi ryzykami związanymi z AI, takimi jak możliwość systemowych uprzedzeń w decyzjach podejmowanych przez AI, czy utrata miejsc pracy spowodowana automatyzacją, niż potencjalnymi przyszłymi katastrofami. 

Jak podkreśla współautor pracy, prof. Fabrizio Gilardi z Departamentu Nauk Politycznych UZH, badanie wykazało również, że ludzie są w stanie dobrze odróżnić teoretyczne zagrożenia od konkretnych, namacalnych problemów i traktują oba typy ryzyka poważnie.

Ta obserwacja ma znaczenie, ponieważ w publicznej dyskusji często pojawiają się obawy, że skupianie się na sensacyjnych scenariuszach przyszłości, odciąga uwagę opinii publicznej od pilnych, aktualnych problemów, z jakimi AI już dziś nas konfrontuje. Badanie dostarcza pierwszych systematycznych danych pokazujących, że świadomość rzeczywistych, obecnych zagrożeń utrzymuje się, nawet gdy ludzie są konfrontowani z apokaliptycznymi ostrzeżeniami.

Emma Hoes, współautorka badania, podkreśla, że dyskusja na temat długoterminowych zagrożeń nie musi automatycznie odbywać się kosztem świadomości bieżących problemów. Gilardi dodaje, że publiczna debata nie powinien opierać się na podejściu "albo-albo". Potrzebne jest równoczesne zrozumienie i docenienie zarówno bezpośrednich, jak i potencjalnych przyszłych wyzwań.

Autorzy pracy sugerują poszukiwanie równowagi w debacie publicznej na temat AI. Nie można ignorować ani bagatelizować żadnego z zagrożeń, zarówno tych tuż przed naszymi drzwiami, jak i tych, które mogą czaić się za horyzontem. Rozwój sztucznej inteligencji niesie ze sobą ogromny potencjał, ale też wymaga od nas czujności, odpowiedzialności i przede wszystkim, zrównoważonego podejścia do analizy ryzyka.