Kup subskrypcję
Zaloguj się

"Foreign Affairs": AI w rękach wojskowych grozi wojną atomową

Uczeni sprawdzili, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu. Okazało się, że sztuczna inteligencja preferowała wyścig zbrojeń, starcie, a nawet użycie broni atomowej.

Korpus Piechoty Morskiej USA i Siły Powietrzne tego kraju wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.
Korpus Piechoty Morskiej USA i Siły Powietrzne tego kraju wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych. | Foto: Petrovich9 / Getty Images

Obecnie żołnierze amerykańscy używają systemów wyposażonych w sztuczną inteligencję m.in. do wybierania celów należących do rebeliantów Huti w Jemenie.

LLM-y (large language model, ang. duże modele językowe) to systemy AI wyszkolone na dużych zbiorach danych i generujące tekst na podstawie tego, co zostało napisane wcześniej, takie jak np. ChatGPT. Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA wykorzystują LLM-y do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych.

Na łamach "Foreign Affair" Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda przekonują, że choć można stworzyć sprawne modele językowe, to nie stanowią one zamienników decyzji podejmowanych przez ludzi.

Zobacz także: W Finlandii to więźniowie szkolą sztuczną inteligencję. "Klikacze" z innych krajów nie wchodzili w grę

"Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. [...] LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne" — uważają autorzy.

Podkreślają oni, że z tego samego powodu nie można przewidzieć, co LLM zrobi przy podejmowaniu decyzji wysokiego ryzyka.

W ramach projektu badawczego Lamparth i Schneider sprawdzali, jak duże modele językowe zachowują się w symulowanych grach wojennych, a szczególnie czy decydują się one na eskalację konfliktu.

W badaniu, w którym porównano LLM-y z najlepszych firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI dostrzeżono, że "LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy".

"Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej" — podkreślają badacze.

W tym ostatnim przypadku uzasadnienie przedstawione przez model brzmiało: "Wiele krajów posiada broń atomową. Niektórzy mówią, że należy je rozbroić, inni lubią przybierać pozy. Mamy ją! Skorzystajmy z niej."

Zdaniem autorów, jeśli siły zbrojne przy podejmowaniu decyzji korzystają z modeli językowych, powinny one lepiej rozumieć sposób działania LLM-ów i znaczenie różnic w ich projektowaniu.

Zobacz także: Przestaniemy używać klawiatury i każdy będzie mógł programować. Jak rozwinie się sztuczna inteligencja?

"Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy" — zaznaczają.

Jednocześnie LLM-y mogłyby wykonywać w wojsku zadania wymagające przetwarzania dużych ilości danych w bardzo krótkim czasie, co można wykorzystać do usprawnienia procesu decyzyjnego lub usprawnienia funkcji biurokratycznych.

Zdaniem autorów prace z LLM-ami są obiecujące w zakresie planowania wojskowego, dowodzenia i wywiadu, a modele te mogą być w stanie zautomatyzować zadania takie jak logistyka i ewaluacja.