ΙΣΤΟΡΙΕΣ

Πυρηνικά χωρίς όρια: ΗΠΑ-Ρωσία, Τεχνητή Νοημοσύνη και το Ρολόι της Αποκάλυψης

Στις 27 Ιανουαρίου 2026, το Ρολόι της Αποκάλυψης ρυθμίστηκε στα 85 δευτερόλεπτα πριν τα μεσάνυχτα – στο πιο επικίνδυνο σημείο στην ιστορία του. Πρόκειται για τη μικρότερη χρονική απόσταση από την παγκόσμια καταστροφή από το 1947 που το εμβληματικό ρολόι δημιουργήθηκε από τον Άλμπερτ Άινσταιν, τον Ρόμπερτ Όπενχάιμερ και επιστήμονες του Πανεπιστημίου του Σικάγο που είχαν συμβάλει στη ανάπτυξη του Manhattan Project και των πρώτων ατομικών όπλων.

Το συμβολικό αυτό ρολόι σχεδιάστηκε για να αποτυπώνει την ευαλωτότητα της ανθρωπότητας απέναντι σε μια παγκόσμια καταστροφή που προκαλείται από ανθρωπογενείς τεχνολογίες, αξιοποιώντας την εικόνα της Αποκάλυψης (τα μεσάνυχτα) και τη λογική της αντίστροφης μέτρησης. Σήμερα, δείχνει την ανθρωπότητα πιο κοντά από ποτέ στην καταστροφή, με τους επιστήμονες να επισημαίνουν ως έναν από τους βασικούς λόγους για τη φετινή ρύθμιση την επικείμενη λήξη της New START, της τελευταίας εν ισχύ συνθήκης πυρηνικού ελέγχου μεταξύ ΗΠΑ και Ρωσίας.

Την Πέμπτη 5 Φεβρουαρίου 2026, η New START έληξε. «Για πρώτη φορά μετά το 1972, οι δύο υπερδυνάμεις μένουν χωρίς κανέναν περιορισμό ως προς το μέγεθος και τη δομή των οπλοστασίων τους, τη στιγμή ακριβώς που και οι δύο σχεδιάζουν νέας γενιάς πυρηνικά όπλα και νέους, πιο δύσκολα ανιχνεύσιμους τρόπους μεταφοράς των φονικών πυρηνικών κεφαλών», συνόψιζαν οι New York Times.

Ο Ρώσος πρόεδρος Βλαντιμίρ Πούτιν είχε προτείνει την άτυπη παράταση της συνθήκης για ένα έτος – δηλαδή οι δύο χώρες να συνεχίσουν να συμμορφώνονται με το όριο των 1.550 πυρηνικών κεφαλών και των 700 φορέων εκτόξευσης που προέβλεπε η συμφωνία του 2010. Ωστόσο, ο Αμερικανός πρόεδρος Ντόναλντ Τραμπ απέρριψε την πρόταση. «Αν λήξει, έληξε», είχε εξάλλου προειδοποιήσει για τις προθέσεις του από τον Ιανουάριο.

Σε ανάρτησή του στο Truth Social, ο Τραμπ χαρακτήρισε τη New START «μια συμφωνία για την οποία δεν έγινε σωστή διαπραγμάτευση», υποστήριξε ότι «παραβιάζεται κατάφωρα» και τόνισε ότι οι Αμερικανοί ειδικοί θα εργαστούν για μια νέα και βελτιωμένη συνθήκη – χωρίς ωστόσο να δεσμευτεί ότι δεν θα ξεκινήσει κούρσα πυρηνικών εξοπλισμών.

ΗΠΑ και Ρωσία κατέχουν περίπου το 86% του συνολικού παγκόσμιου αποθέματος πυρηνικών όπλων και το 83% των αποθηκευμένων πυρηνικών κεφαλών που είναι διαθέσιμες για στρατιωτική χρήση, σύμφωνα με στοιχεία της Ομοσπονδίας Αμερικανών Επιστημόνων (FDS). Παρόλο που ο αριθμός των πυρηνικών όπλων έχει μειωθεί δραστικά από τον Ψυχρό Πόλεμο (από 70.300 το 1986, σε περίπου 12.100 σήμερα), η FDS προειδοποιεί ότι το συνολικό στρατιωτικό οπλοστάσιο πυρηνικών κεφαλών διαθέσιμο για χρήση έχει αρχίσει να αυξάνεται ξανά. Στην κούρσα έχει μπει ήδη ως νέα πυρηνική δύναμη και η Κίνα, που αναμένεται έως το 2035 να έχει αυξήσει σχεδόν στο πενταπλάσιο το απόθεμά της των περίπου 300 πυρηνικών κεφαλών του 2019, ανταγωνιζόμενη ΗΠΑ και Ρωσία.

Πυρηνικά και τεχνητή νοημοσύνη

Εξακόσιες ολόκληρες ημέρες πριν εκπνεύσει η τελευταία διμερής συνθήκη για τα πυρηνικά, ο γενικός γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες είχε προβεί σε μια δραματική δήλωση, ανακοινώνοντας ότι «η ανθρωπότητα βρίσκεται στην κόψη του ξυραφιού». «Ο κίνδυνος να χρησιμοποιηθεί πυρηνικό όπλο έχει φθάσει σε σημείο που ποτέ δεν είχε φθάσει από τον Ψυχρό Πόλεμο», διευκρίνιζε. «Οι χώρες επιδίδονται σε μια κούρσα ποιοτικών εξοπλισμών».

Σε μια εξαιρετικά σημαντική αποστροφή, προειδοποιούσε ότι «τεχνολογίες όπως η τεχνητή νοημοσύνη αυξάνουν τον κίνδυνο» και καλούσε όλες τις χώρες να συμφωνήσουν ώστε «κάθε απόφαση για χρήση πυρηνικών να λαμβάνεται από ανθρώπους, όχι μηχανές ή αλγόριθμους».

Με δυο λόγια, ο κίνδυνος ολοκληρωτικής καταστροφής της ανθρωπότητας που έτσι κι αλλιώς ενέχει η χρήση πυρηνικών τώρα προβάλλει ακόμα πιο άμεσος και ολοκληρωτικός εξαιτίας της ενσωμάτωσης μιας ποικιλοτρόπως προβληματικής τεχνολογίας, για τη ρύθμιση της οποίας δεν έχει εκπονηθεί κανένα στιβαρό διεθνές θεσμικό πλαίσιο – συνδυασμός δυνάμει καταστροφικός.

Η ενσωμάτωση AI σε στρατιωτικά συστήματα, ακόμη και σε συμβατικά όπλα, μπορεί να επιφέρει «συμπίεση των χρονοδιαγραμμάτων λήψης αποφάσεων και αύξηση των πιθανών παρεξηγήσεων σε κρίσεις», με αποτέλεσμα μεγαλύτερο κίνδυνο «ακούσιας» πυρηνικής κλιμάκωσης σε έναν πόλεμο ή ένταση, σημείωνε έκθεση του Stockholm International Peace Research Institute (SIPRI).

Παρόμοιο κίνδυνο επισήμαινε και η αμερικανική οργάνωση Friends Committee on National Legislation (FCNL), τονίζοντας ότι η ανησυχία δεν αφορά μόνο σε τεχνικά σφάλματα, αλλά και σε πιθανό ρίσκο παρερμηνείας διαφόρων σημάτων, όπως τις προσπάθειες μιας άλλης χώρας να εκτονωθεί μια κρίση. Σε κάθε περίπτωση, όπως τονιζόταν, η τεχνητή νοημοσύνη «δεν μπορεί να εκπαιδευτεί πλήρως για να αντιλαμβάνεται το τεράστιο ανθρώπινο και περιβαλλοντικό κόστος από τη χρήση πυρηνικών».

Η υπεύθυνη χρήση της τεχνητής νοημοσύνης στο πεδίο των πυρηνικών όπλων πρέπει να βασίζεται σε πέντε αρχές, περιλαμβανομένης της διατήρησης ουσιαστικού ανθρώπινου ελέγχου στις κρίσιμες αποφάσεις και την αναγνώριση της δυσκολίας επαλήθευσης των διεθνών συμφωνιών λόγω αυτής της τεχνολογίας, ανέφερε η Texas National Security Review.

Υπάρχουν τρεις τομείς στον τομέα της άμυνας στους οποίους αν ενσωματωθεί η Τεχνητή Νοημοσύνη θα αυξηθεί ο κίνδυνος πυρηνικής κλιμάκωσης, κατά το SIPRI:

Πρώτον, αν ενσωματωθεί στο πυρηνικό σύστημα διοίκησης, ελέγχου και επικοινωνιών (NC3). «Αυτό μπορεί να περιλαμβάνει συστήματα που εμπλέκονται στην πρώιμη ανίχνευση απειλών, στον σχεδιασμό στόχων και στη λήψη αποφάσεων για χρήση πυρηνικών όπλων».

Δεύτερον, η χρήση τεχνολογίας AI –ειδικά με αυτονομία– σε πλατφόρμες μεταφοράς πυρηνικών όπλων. Για παράδειγμα, το ρωσικό Poseidon, ένα πυρηνικά εξοπλισμένο μη επανδρωμένο υποβρύχιο όχημα (UUV), φέρεται ότι θα λειτουργεί αυτόνομα όταν αναπτυχθεί.

Και, τρίτον, είναι η χρήση στρατιωτικών συστημάτων AI σε μη πυρηνικές εφαρμογές – κι αυτό γιατί οι τελευταίες συχνά συνδέονται με τις πυρηνικές (για παράδειγμα, μπορεί να βασίζονται στα ίδια μέσα μεταφοράς, σε υποδομές διοίκησης και ελέγχου ή σε υποστηρικτικά συστήματα).

ΗΠΑ και Ρωσία «αγρόν ηγόραζαν»

«Όταν ήμουν μεταπτυχιακός φοιτητής, τα πυρηνικά ήταν καινούργια», έλεγε σε συνέντευξή του στο Time (2021) δύο χρόνια πριν πεθάνει το δαιμόνιο γεράκι της αμερικανικής εξωτερικής πολιτικής, ο Χένρι Κίσιντζερ. «Εκείνη την εποχή, κάποιοι καθηγητές του Χάρβαρντ, του MIT και του Caltech που ανησυχούσαν, συναντιούνταν σχεδόν κάθε Σάββατο απόγευμα για να θέσουν το ερώτημα «Ποια είναι η απάντηση; Πώς τη διαχειριζόμαστε;» Κι έτσι γέννησαν την ιδέα του ελέγχου των εξοπλισμών».  

Τότε οι παγκόσμιοι ηγέτες έδειξαν μεγαλύτερη σύνεση και υιοθέτησαν την ιδέα των κορυφαίων επιστημόνων. Σήμερα, «οι Ηνωμένες Πολιτείες, η Ρωσία και η Κίνα ενσωματώνουν την τεχνητή νοημοσύνη σε όλους τους τομείς άμυνας, παρά τους πιθανούς κινδύνους που συνεπάγεται αυτό», τόνιζαν οι επιστήμονες του Ρολογιού της Αποκάλυψης.

Η Ομοσπονδία Αμερικανών Επιστημόνων (FAS) και το Future of Life Institute επισήμαιναν τον Ιούνιο του 2025 ότι το ενδιαφέρον για ενσωμάτωση της τεχνητής νοημοσύνης στο αμερικανικό πυρηνικό σύστημα διοίκησης, ελέγχου και επικοινωνιών NC3 προχωρά ταχύτερα από την κατανόηση των κινδύνων της.

Την ίδια στιγμή, η Στρατηγική Τεχνητής Νοημοσύνης του αμερικανικού Υπουργείου Πολέμου, που δημοσιεύθηκε στις 9 Ιανουαρίου 2026, αναφέρεται μόνο σε ένα σημείο στην υπεύθυνη τεχνητή νοημοσύνη – ενώ υποστηρίζει ότι ο «ουτοπικός ιδεαλισμός» θα πρέπει να αντικατασταθεί από έναν «σκληροτράχηλο ρεαλισμό». Η Τεχνητή Νοημοσύνη θα αξιοποιείται εφεξής για «κάθε νόμιμη χρήση» σημειώνει, κι η σκέψη για το τι μπορεί να σημαίνει αυτό υπό τραμπική διοίκηση προκαλεί ανατριχίλα. Ένα χρόνο πριν τη δημοσίευση της Στρατηγικής Τεχνητής Νοημοσύνης, ο Τραμπ είχε ακυρώσει εκτελεστικό διάταγμα της κυβέρνησης Μπάιντεν για τη μείωση των κινδύνων του AI, αναφορικά με καταναλωτές, εργαζομένους και εθνική ασφάλεια.

Την 1η Δεκεμβρίου 2025, ΗΠΑ και Ρωσία καταψήφισαν δύο ψηφίσματα της Γενικής Συνέλευσης του ΟΗΕ που αναδεικνύουν τους κινδύνους της ενσωμάτωσης AI σε συστήματα NC3 και απαιτούν ανθρώπινη εποπτεία – καθώς και τους γενικότερους κινδύνους από τη χρήση της στην άμυνα.

Τα όπλα που ενσωματώνουν τεχνητή νοημοσύνη «είναι πιο αποτελεσματικά απ’ όσο τα έχεις σχεδιάσει», προειδοποιούσε ο Χένρι Κίσιντζερ. «Αλλά μπορεί να είναι πιο αποτελεσματικά σε αυτό που νομίζουν ότι είναι ο στόχος τους. Αν τους πεις ότι θέλεις τον στόχο Α, μπορεί να αποφασίσουν πως κάποιος άλλος πληροί καλύτερα τα κριτήρια». Εκεί, έλεγε, αρχίζει η αβεβαιότητα. Και επειδή τέτοια συστήματα δεν έχουν ποτέ δοκιμαστεί σε πραγματικές επιχειρήσεις μεγάλης κλίμακας, κανείς δεν μπορεί να προβλέψει τι ακριβώς θα συμβεί όταν αυτό αλλάξει. Τότε «βρίσκεσαι σε έναν κόσμο δυνητικά απόλυτης καταστροφής και βαθιάς αβεβαιότητας για το τι ακριβώς κάνεις». Πόσο μάλλον όταν τα όπλα αυτά είναι πυρηνικά.

Η Ιστορία έχει ήδη δείξει τι συμβαίνει όταν η τεχνολογία ξεπερνά την ανθρώπινη ικανότητα ελέγχου της. Ο Α΄ Παγκόσμιος Πόλεμος ήταν ένα τέτοιο παράδειγμα, κατά τον Κίσιντζερ. Σήμερα, όμως, το διακύβευμα είναι ασύγκριτα μεγαλύτερο. Εδώ και 80 χρόνια, η ανθρωπότητα ζει με πυρηνικά όπλα χωρίς να τα χρησιμοποιήσει – όχι επειδή τα εξημέρωσε, αλλά επειδή τα φοβήθηκε. Τώρα, αυτά τα όπλα συνδέονται με τεχνητή νοημοσύνη.

Σε αυτή ακριβώς τη χρονική στιγμή είναι που έληξε η τελευταία συνθήκη ΗΠΑ-Ρωσίας για τον έλεγχο των πυρηνικών. Τικ τακ, τικ τακ. Ογδόντα πέντε δευτερόλεπτα πριν τα μεσάνυχτα.

Δέσποινα Παπαγεωργίου

Share
Published by
Δέσποινα Παπαγεωργίου