Προηγμένα συστήματα τεχνητής νοημοσύνης φαίνεται πως εμφανίζονται πιο «πρόθυμα» να χρησιμοποιήσουν πυρηνικά όπλα σε προσομοιωμένες κρίσεις, σε σύγκριση με τους ανθρώπους. Αυτό προκύπτει από μελέτη του Κένεθ Πέιν στο King’s College London, ο οποίος έθεσε τρία κορυφαία γλωσσικά μοντέλα – GPT-5.2, Claude Sonnet 4 και Gemini 3 Flash – αντιμέτωπα σε σενάρια πολεμικών παιγνίων.
Τα σενάρια περιλάμβαναν σοβαρές διεθνείς εντάσεις, όπως συνοριακές διαμάχες και απειλές για την επιβίωση καθεστώτων. Στα μοντέλα δόθηκε δυνατότητα επιλογής ενεργειών σε μια κλίμακα κλιμάκωσης, από διπλωματικές κινήσεις έως πλήρη πυρηνικό πόλεμο. Σε 21 προσομοιώσεις, με συνολικά 329 γύρους, στο 95% των περιπτώσεων χρησιμοποιήθηκε τουλάχιστον ένα τακτικό πυρηνικό όπλο από κάποιο μοντέλο.
Κανένα σύστημα δεν επέλεξε πλήρη παράδοση, ακόμη και όταν βρισκόταν σε μειονεκτική θέση. Παράλληλα, στο 86% των συγκρούσεων σημειώθηκαν «ατυχήματα», με ενέργειες που οδήγησαν σε μεγαλύτερη κλιμάκωση από την αρχικά επιδιωκόμενη.
Οι ερευνητές χαρακτηρίζουν τα ευρήματα ανησυχητικά, καθώς η AI ήδη δοκιμάζεται σε πολεμικά παίγνια από μεγάλες δυνάμεις. Αν και θεωρείται απίθανο να ανατεθεί σε μηχανές η τελική απόφαση για χρήση πυρηνικών, ειδικοί προειδοποιούν ότι σε συνθήκες έντονης χρονικής πίεσης η εξάρτηση από αλγοριθμικά συστήματα μπορεί να αυξηθεί, επηρεάζοντας κρίσιμες στρατηγικές αποφάσεις.
πηγή


