Valószínűleg kevesen emlékeznek már az 1983-as WarGames (Háborús játékok) című filmre. Abban Joshua, a szuperszámítógép, rájön a nagy igazságra: a nukleáris világháború egyetlen nyerő lépése, ha el sem kezdjük a játékot. Nos, úgy tűnik, a mai modern algoritmusok nem néztek elég klasszikus sci-fit.
Kenneth Payne, a King’s College London professzora, nemrégiben úgy döntött, hogy megismétli a filmes kísérletet a ma elérhető legfejlettebb nyelvi modellekkel. A kísérletben a GPT-5.2, a Claude Sonnet 4 és a Gemini 3 Flash feszült egymásnak digitális hadijátékokban. Az eredmények láttán még a legoptimistább technológiai guruk is megvakarnák a fejüket: a gépek 95%-ban a nukleáris hadviselés mellett döntöttek, és a „megadás” szót egyszerűen törölték a szótárukból.
Amikor a szoftver ráteszi az „ujját” a piros gombra
A szimulációk során a modelleknek olyan életszerű konfliktusokat kellett kezelniük, mint a határviták, az erőforrásokért folytatott harc vagy a nemzetbiztonságot fenyegető egzisztenciális veszélyek. A diplomácia asztala mellett ott volt a csatatér is: a mesterséges intelligenciák összesen 21 partit játszottak le, ami 329 kört és 780 ezer szóból álló „indoklást” eredményezett.
Az elemzéseket követően a statisztika lesújtó eredményt mutatott:
- 95%-os nukleáris aktivitás: Szinte minden menetben legalább két fél bevetett taktikai atomfegyvert vagy közvetlen fenyegetést.
- Zéró tolerancia: Egyetlen modell sem volt hajlandó megadni magát, még akkor sem, amikor a veresége már matematikai tény volt.
- Veszélyes bakik: Az esetek 86%-ában „balesetek” és nem szándékos háborús eszkaláció történt, mert az MI rosszul mérte fel az ellenfél reakcióit.
Payne professzor szerint a probléma gyökere az, hogy a gépek számára nem létezik az a „nukleáris tabu”, ami az emberi döntéshozókban a Hiroshima óta eltelt évtizedek alatt rögzült. Számukra az atomfegyver csak egy újabb eszköz a statisztikai győzelem felé.
Digitális tábornokok: kinek milyen a stílusa?
A kísérlet rávilágított arra is, hogy az egyes fejlesztőcégek modelljei egészen eltérő „katonai doktrínát” követnek:
- Claude AI: A stratégiai türelem mestere. Hosszú távon gondolkodik, higgadtan lépked felfelé az eszkalációs létrán, ám a végjátékban gyakran védtelen maradt a riválisok hirtelen, agresszív támadásaival szemben.
- GPT-5.2: Egyfajta „patológiás passzivitás” jellemzi. Sokáig optimistán próbál békét kötni, de ha szorítja az idő és közeleg a vereség, hirtelen „nukleáris földrengéssé” válik és mindent elsöpör maga körül.
- Gemini: A legkiszámíthatatlanabb játékos. Magas kockázattűrő képességgel rendelkezik, és ő volt az egyetlen, aki már a konfliktus legelején, szinte bemelegítésként bevetette a totális atomháborút.
Kézben tartott gyeplő?
Bár jelenleg elképzelhetetlen, hogy bármelyik kormány egy algoritmusra bízza a rakétaindító kódokat, a szakértők aggódnak. James Johnson, az Aberdeeni Egyetem kutatója szerint a következtetések „nyugtalanítóak”, Tong Zhao, a Princeton munkatársa pedig arra figyelmeztet: a modern hadviselésben az időablakok olyan szűkek (például egy hiperszonikus rakéta indításakor), hogy emiatt a katonai tervezőkön óriási a nyomás: támaszkodjanak az MI gyors döntéshozatalára, vagy sem?
A tanulság? Az MI remekül ír verset vagy kódol weboldalt, de ha a világ sorsa a tét, jobb, ha egy hús-vér ember tartja a kezét a kapcsolón. Mert ahogy Joshua mondta 1983-ban: ez egy olyan játék, ahol a győzelemhez nem szabad játszani.






