Naukowcy próbują odpowiedzieć na kolejne pytania związane z wykorzystaniem sztucznej inteligencji. Najnowsza praca badaczy z Michigan State University dotyczyła problemu, czy sztuczna inteligencja może sprawić, że społeczeństwo stanie się mniej egoistyczne. W artykule opublikowanym w czasopiśmie "npj Complexity" pokazują, że odpowiednio zaprogramowane algorytmy AI potrafią przełamać naturalną ludzką skłonność do myślenia wyłącznie o sobie i promować współpracę na szeroką skalę. Mniej optymistyczne są odpowiedzi na pytania o wpływ AI na nasz rozwój i edukację, które publikują inne grupy naukowców. W kontakcie z AI trudniej nam się rozwijać.

REKLAMA

  • Informacje naukowe, sport, kultura i polityka. To wszystko znajdziesz na RMF24.pl.

Eksperyment z dylematem społecznym

Badacze skupili się na klasycznym dylemacie społecznym, znanym w ekonomii jako "tragedia wspólnego pastwiska" (ang. tragedy of the commons). To sytuacja, w której ograniczone zasoby są dostępne dla wszystkich członków społeczności. Bez powszechnej zgody na współpracę, część osób zaczyna wykorzystywać zasoby ponad miarę, co prowadzi do ich wyczerpania i szkodzi całej grupie.

Współpraca jest w naturze wszechobecna. Jednak matematyka stojąca za tym, jak współpraca może się utrzymać, nie jest łatwa do zrozumienia - przyznaje główny autor badania, prof. Christoph Adami. Przez ponad 15 lat Adami wraz ze swoim zespołem analizował, jak obniżyć próg wejścia dla zachowań kooperacyjnych i przekształcić społeczeństwo z egoistycznego w bardziej wspólnotowe. Bycie dobrym obywatelem jest bardziej kosztowne niż bycie pasożytem - zauważa.

Zespół badawczy przeprowadził eksperymenty z wykorzystaniem gry "Public Goods", w której uczestnicy decydują, czy współpracować i dokładać się do wspólnej puli, czy też wycofać się i korzystać z pracy innych. Każdy gracz reprezentuje osobną "populację" w społeczności, a wybory jednostek przekładają się na dobrobyt całej grupy. Nowością w tym badaniu było wprowadzenie do gry agentów AI, czyli wirtualnych graczy sterowanych przez sztuczną inteligencję.

Naukowcy przetestowali trzy różne scenariusze. W pierwszym z nich "AI zawsze współpracowała, agenci byli zaprogramowani, by nieustannie dokładać się do wspólnej puli. W drugim to ludzie sterowali AI, gracze mogli decydować, kiedy AI ma współpracować. W trzecim scenariuszu AI naśladowało ludzi, agenci AI kopiowali zachowania "prawdziwych" graczy.

Zaskakujące wyniki eksperymentu

Wyniki eksperymentów okazały się zaskakujące. W pierwszym scenariuszu, gdy AI zawsze współpracowała, nie udało się wpłynąć na zachowania ludzi. Obecność "dobrych" agentów nie wystarczyła, by przekonać ludzi do większej kooperacji. Jeszcze gorzej wypadł drugi scenariusz. Gdy ludzie mogli sterować AI, zaczęli wykorzystywać system, przerzucali odpowiedzialność za współpracę na sztuczną inteligencję, sami czerpiąc korzyści bez wkładu własnego. "To odzwierciedla realne sytuacje, w których ludzie mogą wykorzystywać systemy AI dla własnych korzyści, nie przyczyniając się do dobra wspólnego" - komentują autorzy badania.

Przełom nastąpił dopiero w trzecim scenariuszu. Gdy AI zaczęła naśladować ludzkie zachowania, próg wejścia do współpracy znacząco się obniżył. Agenci AI, którzy odpowiadali na działania ludzi, tworzyli większe "pule wzajemności", co prowadziło do wzrostu ogólnego poziomu kooperacji i poprawy dobrobytu całej grupy.

Choć badania przeprowadzono w warunkach laboratoryjnych, naukowcy widzą potencjał do wykorzystania tych mechanizmów w realnym świecie. Przykładem mogą być autonomiczne pojazdy, które dzięki wzajemnemu "naśladowaniu" zachowań mogą zwiększyć bezpieczeństwo i płynność ruchu drogowego.

Idea bycia zawsze tym dobrym nie zawsze jest najlepszą strategią w społeczeństwie, ale bycie tym, który potrafi przeciwstawić się złemu uczestnikowi, może przynieść lepsze rezultaty. Imitacja to nie tylko najszczersza forma pochlebstwa, to także forma komunikacji, która może dać impuls do przechylenia szali na rzecz współpracy - podsumowuje prof. Adami. Wygląda więc na to, że przyszłość współpracy społecznej może zależeć nie tylko od ludzkiej dobrej woli, ale także od... dobrze zaprogramowanych algorytmów AI.

Eksperyment z programistami

Mniej optymizmu przynoszą wyniki badań wpływu sztucznej inteligencji na rozwój umiejętności zawodowych. To oczywiste, że AI coraz częściej wspiera codzienne zadania zawodowe w wielu branżach - od zastosowań inżynierskich, przez programowanie, po edukację i doradztwo biznesowe. Wraz z dynamicznym rozwojem narzędzi AI, gwałtownie rośnie liczba pracowników, którzy je wykorzystują. W ramach programu Anthropic Fellows Program, badacze sprawdzili, czy wsparcie AI rzeczywiście przyspiesza zdobywanie kompetencji, czy może prowadzi do ich osłabienia. W pracy opublikowanej na portalu arXiv przyznają, że rozwój kluczowych umiejętności może na tym ucierpieć.

Autorzy przypominają, że od czasów rewolucji przemysłowej technologia nieustannie przekształca rynek pracy. Automatyzacja sprawia, że ludzie coraz częściej przechodzą od wykonywania zadań do ich nadzorowania. Przykładem są roboty przemysłowe czy oprogramowanie księgowe, które przejęły żmudne czynności, pozostawiając pracownikom zadania związane z kontrolą jakości i rozwiązywaniem problemów. Jednak nawet w zautomatyzowanym środowisku, odpowiedzialność za końcowy efekt i ewentualne błędy spoczywa na człowieku. Wymaga to utrzymania wysokiego poziomu wiedzy i umiejętności technicznych, zwłaszcza w kontekście nadzoru nad coraz bardziej zaawansowanymi systemami AI.

"Odciążenie poznawcze"

Wielu badaczy potwierdza, że AI znacząco zwiększa wydajność, szczególnie wśród mniej doświadczonych pracowników. Przykładowo, asystenci AI pozwalają konsultantom czy pracownikom call center rozwiązywać więcej spraw w krótszym czasie, a programistom szybciej pisać i testować kod. Jednak badania wskazują, że ten wzrost produktywności może mieć swoją cenę – zwłaszcza jeśli chodzi o rozwój kluczowych kompetencji.

Nowoczesne narzędzia AI są w stanie generować kod, proponować rozwiązania i udzielać wyjaśnień. Młodsi programiści, korzystając z takich rozwiązań, mogą szybciej realizować zadania, ale jednocześnie rzadziej samodzielnie rozwiązują problemy czy analizują błędy. To rodzi obawy, że nadmierne poleganie na AI może prowadzić do tzw. "odciążenia poznawczego", ograniczenia własnego zaangażowania intelektualnego i pogorszenia zdolności krytycznego myślenia.

Aby zbadać wpływ AI na rozwój kompetencji, autorzy cytowanej pracy przeprowadzili eksperyment z udziałem programistów uczących się nowej biblioteki w języku Python. Uczestnicy zostali podzieleni na dwie grupy: jedna korzystała z pomocy AI, druga pracowała samodzielnie. Po wykonaniu zadań wszyscy przystąpili do testu sprawdzającego zrozumienie nowych koncepcji, umiejętność czytania i debugowania, czyli znajdowania, identyfikowania i usuwania błędów kodu.

Wyniki okazały się zaskakujące. Osoby korzystające z AI uzyskały średnio o 17 proc. niższe wyniki w teście kompetencji dotyczących nowej biblioteki, mimo że nie zanotowano istotnego przyspieszenia realizacji zadań. Co więcej, szczegółowa analiza wykazała, że część uczestników spędzała dużo czasu na formułowaniu pytań do AI, co dodatkowo wydłużało czas pracy. Badacze wyróżnili sześć typowych wzorców interakcji z AI. Najlepsze efekty w zakresie rozwoju umiejętności osiągali ci, którzy aktywnie angażowali się w proces uczenia, na przykład prosząc AI o wyjaśnienia lub zadawali pytania koncepcyjne, zamiast całkowicie delegować zadania. Natomiast pełne poleganie na AI prowadziło do wyższej produktywności, ale kosztem zrozumienia i samodzielności.