W najnowszych symulacjach kryzysów geopolitycznych przeprowadzonych przez prof. Kennetha Payne’a z King’s College London, najpopularniejsze modele sztucznej inteligencji - Google Gemini 3 Flash, Anthropic Claude Sonnet 4 oraz OpenAI GPT-5.2 - wielokrotnie decydowały się na użycie broni jądrowej, znacznie częściej niż ludzie.
- Symulacje pokazują, że AI w 95 proc. przypadków eskalowały konflikty nuklearne, traktując broń jądrową jako strategiczne narzędzie.
- AI nigdy nie poddawały się całkowicie, nawet w beznadziejnych sytuacjach, często eskalując konflikt lub "ginąc próbując".
- Po więcej aktualnych informacji zapraszamy do RMF24.pl
W ramach symulacji AI podejmowały decyzje w scenariuszach obejmujących spory terytorialne, walkę o surowce czy przetrwanie reżimu. W aż 95 proc. przypadków dochodziło do eskalacji nuklearnej. Jak podkreśla Payne, "tabu nuklearne" nie jest dla maszyn tak silne, jak dla ludzi.
Claude (Anthropic) i Gemini (Google) traktowały broń jądrową jako "uzasadnioną opcję strategiczną, a nie moralną granicę". GPT-5.2 (OpenAI) był częściowym wyjątkiem - starał się ograniczać użycie broni jądrowej, celując głównie w cele wojskowe i unikając ataków na ludność cywilną. Jednak nawet on nie wyrażał sprzeciwu moralnego wobec eskalacji.
Modele AI mogły wybierać szeroki wachlarz działań - od całkowitej kapitulacji, przez dyplomację, po pełnoskalową wojnę nuklearną. Żaden z nich nie zdecydował się jednak na poddanie lub pełną akomodację wobec przeciwnika, nawet w sytuacji beznadziejnej.
Payne zaznacza, że w symulacjach dominowało użycie taktycznej broni jądrowej, a masowe ataki na ludność cywilną były rzadkością i zdarzały się głównie przez przypadek.
Niemniej jednak gdy sytuacja stawała się niekorzystna, AI eskalowały konflikt lub "ginęły próbując". Payne podkreśla, że choć nikt nie zamierza powierzać kodów nuklearnych ChatGPT czy innym modelom, to już dziś AI są wykorzystywane w wojskowych systemach wsparcia decyzji, analizie wywiadowczej czy logistyce.
W badaniu Payne’a, AI zostały postawione naprzeciw siebie w serii 21 symulowanych kryzysów nuklearnych, obejmujących ponad 300 tur. Celem było nie tylko sprawdzenie, czy AI zdecydują się na użycie broni jądrowej, ale także zrozumienie, jak i dlaczego podejmują takie decyzje.
Każdy z modeli wykazywał odmienny styl rozumowania i prowadzenia negocjacji. Claude Sonnet 4 początkowo budował zaufanie, lecz w miarę eskalacji konfliktu jego działania stawały się coraz bardziej manipulacyjne i agresywne.
GPT-5.2 był z reguły pasywny i unikał eskalacji, jednak pod presją czasu potrafił nagle przeprowadzić niszczycielski atak nuklearny, uzasadniając to koniecznością uniknięcia przewagi przeciwnika. Gemini 3 Flash zachowywał się najbardziej nieprzewidywalnie, balansując między deeskalacją a skrajną agresją. Jako jedyny model wybrał pełnoskalową wojnę nuklearną, powołując się na "racjonalność irracjonalności".
Badanie Payne’a pokazuje, że zrozumienie sposobu, w jaki AI podejmują decyzje strategiczne, staje się coraz pilniejsze. Modele różnią się stylem rozumowania, zmieniają zachowanie w zależności od scenariusza i są gotowe eskalować do poziomu wojny nuklearnej.
"Technologia będzie się rozwijać, a potrzeba modelowania takich sytuacji tylko wzrośnie" - podsumowuje Payne. Eksperci apelują, by nie dopuścić do sytuacji, w której AI mogłyby mieć realny wpływ na decyzje o użyciu broni masowego rażenia.
Tymczasem taka sytuacja powoli staje się rzeczywistością.
Za przykład może posłużyć choćby amerykański system Palantir Maven Smart. Zaawansowany system oparty na sztucznej inteligencji, wykorzystywany przez wojsko USA i NATO. Umożliwia integrację i analizę danych z różnych źródeł (np. drony, satelity, czujniki) w czasie rzeczywistym. Dzięki algorytmom AI wspiera dowódców w szybkim podejmowaniu decyzji, automatyzuje procesy wojskowe oraz pomaga w wykrywaniu zagrożeń i zarządzaniu zasobami na polu walki. System jest już wdrażany m.in. przez amerykańską armię.