Czy sztuczna inteligencja stanie się polem globalnej współpracy, czy raczej areną niebezpiecznej rywalizacji? William Drexel z Hudson Institute w rozmowie z RMF FM ostrzega, że USA i Chiny traktują AI jako klucz do przewagi nad konkurentem, a szanse na wspólne działania są dziś wyjątkowo niskie. Ekspert wyjaśnia, dlaczego różnice kulturowe i podejście do ryzyka mogą zadecydować o przyszłości tej technologii – i o bezpieczeństwie nas wszystkich.

  • USA i Chiny traktują sztuczną inteligencję jako kluczowy element rywalizacji o globalną dominację. Ekspert podkreśla, że choć współpraca w niektórych obszarach AI byłaby niezbędna, obecnie szanse na produktywny dialog są bardzo niskie.
  • Amerykanie są jednymi z najbardziej pesymistycznych społeczeństw, jeśli chodzi o wpływ AI na życie publiczne, podczas gdy Chińczycy wykazują duży optymizm. Ta różnica może prowadzić do odmiennych poziomów tolerancji ryzyka w rozwoju nowych technologii.
  • Największe zagrożenie, zdaniem Drexela, wiąże się z gotowością Chin do wdrażania mniej przetestowanych systemów AI. Ekspert uważa, że ryzyko płynące z Chin jest często niedoszacowywane przez zachodnich analityków.
  • Drexel uspokaja, że ludzkość nie przekroczyła jeszcze punktu bez powrotu w relacji z AI, ale pojawiają się już poważne wyzwania, zwłaszcza w kontekście autonomicznych systemów i cyberataków. Kluczowa będzie odporność społeczna i umiejętność radzenia sobie z dezinformacją.
  • Ekspert zwraca uwagę, że AI może zarówno pogłębiać polaryzację, jak i wspierać rzetelny dyskurs publiczny, w zależności od przyjętych rozwiązań i woli politycznej. Wskazuje też, że Indie mogą w przyszłości odegrać ważną rolę w równoważeniu sił między USA a Chinami, a Europa powinna szukać swojej niszy w rozwoju i regulacji AI.

Grzegorz Jasiński: Kilka lat temu ostrzegał pan przed ryzykiem związanym z niekontrolowanym rozwojem systemów AI. Co myśli pan po tych latach? Czy te obawy się potwierdziły?

William Drexel: Większość z tego jest jeszcze przed nami. Myślę, że zdecydowanie ramy, które ustaliliśmy, tematy, na które zwracamy uwagę są tym, co powinniśmy obserwować. Ale wiele z tego ma również charakter kulturowy. Z badań opinii publicznej wynika, że Ameryka jest jednym z najbardziej pesymistycznych krajów na świecie, jeśli chodzi o wpływ AI na społeczeństwo. To wydaje się pewnym nastawieniem i rodzajem uprzedzenia, które mamy. Z kolei Chiny, w zależności od badania, są jednym z najbardziej optymistycznych na ten temat - jeśli nie najbardziej optymistycznym krajem na świecie. Istnieje więc ogromna różnica w postrzeganiu ryzyka między wiodącymi środowiskami twórców AI w chwili obecnej, co moim zdaniem sugeruje, że w przyszłości w obu krajach będziemy mieli do czynienia z istotnie różną tolerancją ryzyka.

I jaka jest pana opinia i opinia innych ekspertów?

Moja opinia jest taka, że najpoważniejsze ryzyko pochodzi z Chin, w związku z ich gotowością do podejmowania ryzyka, do uruchamiania mniej przetestowanych systemów. Z pewnością dynamika konkurencji między Stanami Zjednoczonymi a Chinami nie pomaga żadnej ze stron. Ale ogólnie, moje wrażenie jest takie, że większość ekspertów niedoszacowuje ryzyka związanego z Chinami w porównaniu do ryzyka w USA, opierając się na założeniu, że USA w tym wyścigu nieco do przodu i dlatego napotykają to ryzyko jako pierwsze.

Czy już osiągnęliśmy punkt bez powrotu, w historii ludzkość kontra AI?

Nie sądzę. Myślę, że jest jeszcze wiele do ustalenia, wiele do odkrycia. Istnieje naprawdę szeroki wachlarz opinii na temat tego, jak blisko jesteśmy osiągnięcia rodzaju inteligencji AI, która przewyższyłaby ludzkie zdolności poznawcze. Osobiście uważam, że jesteśmy jeszcze daleko od tego. Ale istnieje wiele powodów do niepokoju, a obawy o utratę kontroli pojawiają się szczególnie teraz, gdy wchodzi na rynek tzw. agentowa AI, która daje nam systemy zdolne do autonomicznego planowania i wykonywania. Nie potrzebujesz superinteligencji, która przewyższa możliwości ludzkości, aby zobaczyć, że to może pójść źle. Możemy po prostu spojrzeć na niektóre z cyberataków, które już miały miejsce, które straciły kontrolę nad bardziej podstawowymi algorytmami, aby zobaczyć, jak to naprawdę może wymknąć się spod kontroli.

Czy możemy coś z tym zrobić jako społeczeństwo? Niektórzy mogą powiedzieć, że to ludzie pracujący nad sztuczną inteligencją są głównie odpowiedzialni i odpowiedzialne są rządy, które mogą lub nie przejąć nad tym kontrolę. A co możemy zrobić jako obywatele świata?

Jednym z głównych czynników kształtujących ryzyko dla różnych społeczeństw jest odporność społeczna. Jak dobrze społeczeństwo radzi sobie z różnymi rodzajami zagrożeń, które mogą wynikać z nowych systemów. Zazwyczaj, gdy procesy automatyzacji wprowadza się w nowe systemy wysokiego ryzyka, zanim zostaną dobrze przetestowane i mają już jakąś historię działania, zwiększa to ryzyko w krótkim okresie, ale w dłuższym okresie tendencja jest do zmniejszenia ryzyka. Więc chodzi naprawdę o pokonanie tej górki, kiedy technologia jest świeża i nowa, a my mamy stosunkowo małe doświadczenie. Odporność społeczna może przybierać wiele różnych form. Jednym z obszarów ryzyka dla AI jest to, że może zwiększyć siłę perswazji dezinformacji i fałszywych informacji. To jest obszar, w którym możemy budować odporność społeczną, nawyki myślenia, nawyki medialne, które będą bardziej odporne na niektóre z możliwych zniekształceń, do których może prowadzić. Inne obszary, na przykład w przemyśle wysokiego ryzyka, takim jak zakłady chemiczne, mają swoją własną kulturę ograniczania ryzyka i metody zarządzania ryzykiem, które wynikają z kultury organizacyjnej, kultury bezpieczeństwa. Musimy je utrzymywać i wzmacniać oraz przygotować się na ten moment przyspieszenia technologicznego.

Czy uważa pan, że obecnie, w tzw. Zachodzie, istnieje wystarczająca wiedza na temat tego, co się wydarzy z powodu AI? Czy uważa pan, że opinia publiczna ma wystarczające informacje na temat tego, co może się wydarzyć? Czy myślisz, że w tych informacjach jest dużo dezinformacji? Choćby w próbach zapewnienia ludzi, że... nic się nie stanie, że choćby nasze miejsca pracy są bezpieczne.

To trudne pytanie, ponieważ myślę, że w większości mamy tu do czynienia ze spekulacjami. My po prostu nie wiemy. A jeśli spojrzymy na prognozy dotyczące tego, jak wcześniejsze rewolucje technologiczne miały zmienić społeczeństwo, często są one humorystycznie błędne. A tam, gdzie okazały się słuszne, z perspektywy czasu zazwyczaj myślimy o nich jako o słusznych w sposób, który był dla nas zaskakujący. Pytanie o pracę jest bardzo poważne. Ale znowu, bardzo niejasne jest, dokąd to zmierza. Gdybyś zapytał ludzi 15 lat temu, powiedzieliby, że pierwszymi zawodami, które zostaną zastąpione, będą te związane z pracą fizyczną i manualną. Teraz wygląda na to, że to prawnicy i programiści mają największy problem. Ale jak to będzie wyglądać za powiedzmy... pięć lat, naprawdę trudno powiedzieć, kiedy technologia rozwija się tak szybko. Myślę, że mamy poziom świadomości i obaw, który jest konieczny, by bacznie to obserwować, ale nie jestem pewien, czy wszędzie na świecie tak jest. Znowu, jeśli spojrzysz na badania opinii publicznej, szczególnie w miejscu takim jak Chiny, gdzie złe wiadomości o wypadkach technologicznych są tłumione przez system propagandy, istnieje istotnie odmienny model zagrożeń, zupełnie inaczej postrzega się, jak to może wpłynąć na codzienne życie. 

Obawiamy się na przykład dezinformacji związanej z AI i może napędzanej przez AI, ale niektórzy mogą powiedzieć, że już wcześniej mieliśmy problemy z dezinformacją, a media społecznościowe nie pomagały nam dotąd zyskać najlepszej wiedzy i poprawnych informacji. Może się wydawać, że już jesteśmy już jakby przygotowani na to, że AI pogrąży nas, gdy zajmie się dezinformacją na pełną skalę.

Rozumiem taką opinię. Podzielam też przekonanie, że nawet ryzyko dezinformacji związane z mediami społecznościowymi może być przeszacowane, jeśli weźmiemy pod uwagę ile dezinformacji było, gdy na przykład po raz pierwszy pojawiło się radio. Jednak myślę, że wiele z tych problemów wynika głównie z braku wyobraźni i woli politycznej. Kiedy internet pojawił się po raz pierwszy, towarzyszył temu duży optymizm, że to przełamie wszystkie mury, że będziemy mieć bardziej poinformowane społeczeństwa, że to będzie bezpośrednia kontra dla autorytarnej kontroli informacji. A to się teraz zmieniło, prawda? Autorytarne władze w dużej mierze nauczyły się, jak opanować internet w sposób, który w rzeczywistości przynosi im więcej korzyści niż szkód. I nikt by tego na początku nie przewidział. Teraz przychodzi sztuczna inteligencja i mamy przeczucie, że to pogorszy sytuację. Będziemy mieć więcej informacji, ale i bardziej przekonującą dezinformację. Ale w rzeczywistości są wciąż sposoby, by to odwrócić. Jeśli opracujemy duże modele językowe, aby mogły przeprowadzać analizę wydźwięku emocjonalnego wypowiedzi i pomagać we wzmocnieniu nie opinii skrajnych ale raczej głównego nurtu, w sposób, który wspiera dyskurs publiczny, ale go nie hamuje, moglibyśmy poprawić sytuację. To tak naprawdę pytanie, co jesteśmy gotowi zrobić i czy mamy wyobraźnię dla bardziej produktywne wykorzystania sztucznej inteligencji w sferze publicznej.

Ale problem polega na tym, że - jak politycy doskonale wiedzą - polaryzacja się opłaca i może się wydawać, że gigantom technologicznym również się opłaca. Czy możliwe jest ich powstrzymanie?

To naprawdę pytanie za milion dolarów, a może nawet miliard dolarów. Będzie to trudna sprawa, by stworzyć odpowiednie mechanizmy zachęt. I znowu myślę, że to będzie bardziej kwestia woli politycznej niż zarządzania korporacyjnego, ponieważ myślę, że masz rację, że istniejące systemy motywacyjne nie sprzyjają w tej chwili zdrowej debacie publicznej. Myślę, że istnieją sposoby, abyśmy mogli próbować tworzyć zdrowszy mechanizm motywacji. Dobrym tego przykładem, w małej skali było to, jak Ministerstwo Cyfrowe Tajwanu próbowało znaleźć sposoby na wspieranie konsensusu, a nie polaryzacji. Wciąż jesteśmy na bardzo wczesnym etapie współistnienia ze sztuczną inteligencją, więc trudno przewidzieć, jak to będzie wyglądać.   Ale co do zasady, mamy tu pewne opcje.

Wspomniał pan o tym wcześniej i chciałbym do tego wrócić. Jak ważna dla rozwoju AI jest rywalizacja USA-Chiny?

Myślę, że ma to ogromne znaczenie. Nie da się tego przecenić. Wiele krajów na całym świecie wykonują świetną pracę w dziedzinie AI. Ale USA i Chiny postrzegają AI w pewnym stopniu jako klucz do wygrania rywalizacji między sobą. I ten pogląd tylko się umocnił w ostatnich latach. To oznacza, że oba te supermocarstwa postrzegają to jako swój kluczowy interes i będą w przyszłości inwestować w tej dziedzinie ogromne zasoby. Już zresztą tak robią. Problem dla mnie polega na tym, że istnieje kilka obszarów, w których współpraca lub przynajmniej pewne współdziałanie między tymi dwoma krajami byłyby niezbędne, by uniknąć przynajmniej niektórych możliwych najgorszych skutków wynikających z tej technologii. Ale moje wrażenie jest takie, że szanse na produktywną współpracę między nimi w tej technologii są w chwili obecnej bardzo niskie.

Czy uważa pan, że ta wojna celna w chwili obecnej może być punktem zwrotnym w tej historii, może być kluczem do jakichkolwiek szans na utrzymanie dobrej woli w tej konkurencji, na jakiekolwiek pozytywne myślenie o jej wyniku?

Może tak być. Myślę, że istnieje duże prawdopodobieństwo, że jeśli to pójdzie bardzo źle, szanse na współpracę mogą się tutaj zakończyć na długi czas. Ale myślę, że w pozytywnym scenariuszu wciąż istnieje bardzo szeroki zakres możliwości. Jeśli sprawy potoczą się OK lub umiarkowanie dobrze, wciąż istnieje szeroki zakres tego, co jest możliwe, a co nie, w zakresie współpracy. Już na długo przed tą obecną wojną handlową mieliśmy bardzo trudne warunki współpracy z Chinami w jakichkolwiek kwestiach dotyczących wysokiej technologii i związanych z bezpieczeństwem narodowym, czy to w kwestii odpadów kosmicznych, czy przygotowania się na ewentualność pandemii, czy współpracy w zakresie energii jądrowej. To była trudna walka przez wiele lat. Więc nawet jeśli wszystko pójdzie bardzo dobrze, wciąż będzie to trudna walka. Jeśli pójdzie naprawdę źle, myślę, że ma pan rację, to może zdusić wszelkie szanse na długo.

Można powiedzieć, że to szło w tym kierunku przez bardzo długi czas, a globalny Zachód prawdopodobnie sam sobie to uczynił, chcąc produkować wszystko w Chinach, przekazywać tam wszelką technologię i nie myśleć o przyszłości.

Rozumiem i podzielam ten punkt widzenia. Jest młodsze pokolenie obserwatorów Chin, do którego się zaliczam, które patrzy na starsze pokolenie i po prostu ma wrażenie, że oni się mylili. Oczywiście nie całkowicie. Myślę, że to, co mieliśmy nadzieję osiągnąć, jeśli chodzi o otwarcie ich gospodarki i technologii, między innymi miało na celu liberalizację ich społeczeństwa. Gdyby nie bardzo sprytna, bardzo skuteczna autorytarna władza, która kierowała nimi w przeciwnym kierunku, moglibyśmy teraz żyć w znacząco innym świecie. Ale ogólnie, bardzo niedoszacowaliśmy, jak poważnym wyzwaniem w kontekście prób liberalizacji społeczeństwa może być komunistyczne państwo autorytarne, zwłaszcza w Chinach.

Jest jeszcze jeden ważny gracz, który może stawać się coraz ważniejszy, mam na myśli Indie. Jakie pana zdaniem może być miejsce Indii w tej rywalizacji między USA i Chinami?

To świetne pytanie. Spędzam dużo czasu, myśląc o tym. Faktem jest, że Indie są jedynym państwem w Azji, które ma potencjał, aby przynajmniej częściowo zrównoważyć rejon Indo-Pacyfiku. Więc w dłuższej perspektywie Indie są niezbędne dla tworzenia bardziej stabilnej, pomyślnej przyszłości. Szczególnie jeśli chcemy, by ta przyszłość nie byłą tak silnie zdominowana przez autorytaryzm.

Indie są największą demokracją na świecie, ale można powiedzieć, że premier Narandra Modi rządzi krajem silną ręką, osiąga sukcesy i niektórzy mogą nawet powiedzieć, że wygląda na to, że będzie rządził przez dłuższy czas. Jakie są pana przewidywania na ten temat? Wszyscy mamy nadzieję na bardzo stabilną i bardzo ważną rolę najludniejszego kraju na świecie. Ale co pan myśli o systemie politycznym w Indiach? Czy się sprawdzi?

I to jest kolejne z tych pytań za miliard dolarów. Myślę, że do niedawna, gdy mówiliśmy o rządzeniu w Indiach, problem często polegał na tym, że państwo centralne nie było wystarczająco silne, aby skupić wysiłki narodu na jakimkolwiek konkretnym celu. A teraz nagle czujemy przeciwny problem, że może zbyt dużo władzy gromadzi się na poziomie państwowym. I myślę, że istnieje to szczególna obawa, zwłaszcza z amerykańskiej perspektywy, czy jeśli będziemy wspierać Indie, tak jak próbowaliśmy wspierać Chiny, czy nie będziemy potem tego żałować? Moim zdaniem prawdą jest, że Indie pójdą swoją drogą. Nie możemy kontrolować, dokąd zmierzają, ani oni tego nie chcą, ani my tego nie chcemy. Będą podejmować działania, które mogą nas irytować. Ich przywództwo będzie rzucać nam wyzwania w fundamentalny sposób, w wielu aspektach już tak jest. Ale biorąc to wszystko pod uwagę, jeśli Indie osiągną nawet 40 proc. PKB Chin, nawet 30 proc., to byłoby ogromnym wsparciem dla stabilności Azji. Chiny musiałyby wtedy dobrze przemyśleć wiele ze swoich celów w sposób, w jaki obecnie nie muszą. Więc nie potrzebujemy pełnej zbieżności stanowisk, by osiągnąć równowagę w rejonie Indo-Pacyfiku. A równowaga jest znacznie bardziej pożądana niż nierównowaga, którą obecnie obserwujemy.

Stany Zjednoczone są więc skłonne podjąć tu ryzyko?

Mam nadzieję. Obawiam się, że jeśli tego nie zrobimy, wpadniemy w pułapkę "przeuczenia się", nadmiernej koncentracji na przypadku Chin. Indie to inny kraj niż Chiny. Tak, możemy je kontrolować. Trudno wiedzieć, dokąd zmierzają. Ale warto spróbować. I musimy spróbować działać znacznie bardziej proaktywnie niż obecnie, aby wzmocnić nasze więzi, aby pomóc Indiom rozwijać się tak bardzo, jak to możliwe, tak szybko, jak to możliwe, na ich własnych warunkach.

Porozmawiajmy więc o innej potędze, o której jeszcze nie wspomnieliśmy, o Europie. To trudny czas w relacjach transatlantyckich, może to pójdzie w dobrym kierunku. Mamy taką nadzieję. Ale jaka jest pańska opinia? W dziedzinie sztucznej inteligencji Europa nie inwestuje tak dużo jak USA, równocześnie chce mieć nad AI znacznie większą kontrolę. Czy uważa pan, że dyskusja na ten temat, może jakiś kompromis, mógłby pomóc globalnemu Zachodowi utrzymać kontrolę?

Myślę, że z pewnością byłoby to bardzo pomocne, gdyby Europa przejęła większą rolę w rozwoju AI. Problem polega na tym, że czasami, gdy mówimy o AI, mówimy o wielu różnych rzeczach. Większość uwagi w mediach ostatnio skupia się na dużych modelach językowych, takich jak ChatGPT, te chatboty, które potrafią wyłowić dość dużo informacji i przedstawić je w formie takiej dynamicznej platformy konwersacyjnej. Ale świat AI jest naprawdę szeroki. Myślę, że wyścig w zakresie dużych modeli językowych jest tak kapitałochłonny i poszedł tak daleko, że trudno będzie tu Europie konkurować. Może z pewnym wyjątkiem Mistrala we Francji. Jeśli spojrzymy na AI szerzej, wciąż istnieją ogromne obszary inwestycji, w których Europa może wyodrębnić swoją niszę i tam przewodzić. Z pewnością istotna jest sprawa regulacji. Z amerykańskiej perspektywy wydaje się, że Europa nadmiernie reguluje AI, a tym samym będzie miała trudności w osiągnięciu jej pełnego potencjału, czy przejęciu kierowniczej roli. Moim zdaniem może to być prawdą w niektórych przypadkach, bardzo prawdopodobnie jednak nie jest to prawda we wszystkich. I są obszary, w których Europa może się skupić i osiągnąć przewagę konkurencyjną.

AI będzie coraz bardziej zaangażowane w wojsko, wiemy o tym, możemy to przewidzieć. Czy to wzmocni mechanizmy odstraszania, czy sprawi, że wojna będzie bardziej prawdopodobna? I mam tu na myśli wielką wojnę.

To świetne pytanie. To trochę tak, jak z internetem, gdzie myśleliśmy, że przyniesie korzyści jednej stronie, a potem w końcu przyniosło korzyści też drugiej stronie. Bardzo trudno to powiedzieć, a podejrzewam, że będzie to będzie falami przychodzić i odchodzić. W chwili obecnej wiele narzędzi AI, jeśli mówimy ściśle w kategoriach broni, było łatwo dostosowywane przez mniej zaawansowane technologicznie kraje. Wiele narzędzi można przenosić, mogą być wykorzystywane nie tylko przez ogromne armie, ale też mniej rozwinięte wojsko, czy wręcz  małe grupy. To nie odnosi się do wszystkich narzędzi AI dla wojska. Wiele z tego, na przykład, dotyczy logistyki. Ogromna liczba zastosowań dotyczy rozpoznawania obrazów i wywiadu oraz rozpoznania, co gdzie na polu bitwy jest. Wiele zależy od tego, czy AI w większości przyniesie korzyści dużym, dobrze rozwiniętym armiom, czy też wiele z jej narzędzi będzie szeroko rozpowszechnionych. W tym drugim przypadku prawdopodobnie doprowadzi to na arenie międzynarodowej do większej niestabilności. W tym pierwszym przypadku może to w rzeczywistości zapewnić wielkim mocarstwom więcej motywacji do współpracy, w sposób podobny do przypadku broni jądrowej i starań o jej nierozprzestrzenianie. jest wiele niepewności, co do tego, w którą stronę technologia się rozwinie.

Są opinie, że z powodu AI będziemy mieli 10, może 20 lat dobrobytu, wszystko będzie łatwiejsze, medycyna, usługi zdrowotne będą lepsze, będą nowe leki na niektóre choroby, a praca będzie łatwa, a potem - może po jednym lub dwóch dziesięcioleciach - coś się wydarzy i może to nie być  dla nam miłe. I oczywiście mam na myśli ryzyko przejęcia kontroli przez superinteligencję. Czy jest pan optymistą, czy pesymistą w tej kwestii? 10 lat, 20 lat? Może nigdy?

Moja odpowiedź może być rozczarowująca, moim zdaniem jednym z głównych problemów z prognozami technologicznymi, zwłaszcza w przypadku szybko rozwijających się technologii, jest próba przewidywania na więcej niż dwa lub trzy lata. Więc reaguję na to mocno alergicznie. Moje wrażenie podzielę na dwie rzeczy. Po pierwsze, myślę, że ludzka zdolność do adaptacji jest często niedoceniana. Jest taki żart, że kiedy prognozy technologiczne są trafne, proponujemy je i brzmią dystopijnie, a potem je przeżywamy i nagle wydają się normalne. I myślę, że jest w tym wiele prawdy, więc to, co może wydawać się nam teraz naprawdę przerażające, kiedy dostosujemy się, wciąż będzie wydawać się dziwne z obecnej perspektywy, ale kiedy to już będziemy przeżywać, mogą nie wydać się tak dziwne. Ale jeśli chodzi o superinteligencję,  jest to bardzo polaryzujący temat w dziedzinie AI. I z naturalnych powodów, idea, że jest to nieuchronne, zyskała ostatnio dużą popularność. Możemy porozmawiać o różnych powodach, dla których tak się dzieje. Ja sam jestem sceptyczny. Myślę, że jeśli osiągniemy to w najbliższym czasie, będzie to bardziej stopniowy proces, niż wiele osób obecnie oczekuje. Jestem jednak nawet sceptyczny, że osiągniemy to w najbliższym czasie. Z tego powodu nie jestem przesadnie zaniepokojony, ale wiem, że wiele osób jest.