ΓΕΝΕΥΗ – Δεν είναι πλέον επιστημονική φαντασία: ο αγώνας για την εφαρμογή της τεχνητής νοημοσύνης σε συστήματα πυρηνικών όπλων βρίσκεται σε εξέλιξη – μια εξέλιξη που θα μπορούσε να κάνει πιο πιθανό τον πυρηνικό πόλεμο. Με τις κυβερνήσεις σε όλο τον κόσμο να ενεργούν για να διασφαλίσουν την ασφαλή ανάπτυξη και εφαρμογή της τεχνητής νοημοσύνης, υπάρχει μια ευκαιρία να μετριαστεί αυτός ο κίνδυνος. Αλλά εάν οι παγκόσμιοι ηγέτες θέλουν να το πάρουν το ρίσκο, πρέπει πρώτα να αναγνωρίσουν πόσο σοβαρή είναι η απειλή.
Τις τελευταίες εβδομάδες, η G7 συμφώνησε στον Διεθνή Κώδικα Δεοντολογίας της Διαδικασίας της Χιροσίμα για Οργανισμούς που Αναπτύσσουν Προηγμένα Συστήματα Τεχνητής Νοημοσύνης, προκειμένου «να προωθήσει το μήνυμα για ασφαλή και αξιόπιστη τεχνητή νοημοσύνη παγκοσμίως». Το Ηνωμένο Βασίλειο φιλοξένησε επίσης την πρώτη παγκόσμια διάσκεψη κορυφής για την ασφάλεια της τεχνητής νοημοσύνης, με στόχο να διασφαλιστεί ότι η τεχνολογία θα αναπτυχθεί με «ασφαλή και υπεύθυνο» τρόπο.
Ωστόσο, καμία από αυτές τις πρωτοβουλίες δεν αντιμετωπίζει επαρκώς τους κινδύνους που ενέχει η εφαρμογή της τεχνητής νοημοσύνης στα πυρηνικά όπλα. Τόσο ο κώδικας συμπεριφοράς της G7 όσο και το εκτελεστικό διάταγμα του Μπάιντεν αναφέρονται απλώς στην ανάγκη προστασίας των πληθυσμών από χημικές, βιολογικές και πυρηνικές απειλές που δημιουργούνται από την τεχνητή νοημοσύνη.
Ο πρωθυπουργός του Ηνωμένου Βασιλείου Rishi Sunak δεν ανέφερε καθόλου την οξεία απειλή από εφαρμογές τεχνητής νοημοσύνης που σχετίζονται με πυρηνικά όπλα, παρόλο που δήλωσε ότι είχε επιτευχθεί κοινή κατανόηση των κινδύνων που θέτει η τεχνητή νοημοσύνη στη Σύνοδο Κορυφής για την Ασφάλεια της AI. Κανείς δεν αμφιβάλλει για τους υπαρξιακούς κινδύνους που εγκυμονεί η χρήση πυρηνικών όπλων, που θα προκαλούσαν ανείπωτη καταστροφή στην ανθρωπότητα και στον πλανήτη. Ακόμη και ένας περιφερειακός πυρηνικός πόλεμος θα σκότωνε εκατοντάδες χιλιάδες ανθρώπους άμεσα, ενώ θα οδηγούσε σε σημαντικά έμμεσα δεινά και θάνατο. Οι κλιματικές αλλαγές που θα προκύψουν από μόνες τους θα απειλούσαν δισεκατομμύρια ανθρώπους με πείνα.
Η πυρηνική ιστορία είναι γεμάτη από παραλίγο αστοχίες. Πολύ συχνά, ο Αρμαγεδδώνας αποφεύχθηκε από έναν άνθρωπο που επέλεξε να εμπιστευτεί τη δική του κρίση, αντί να ακολουθήσει τυφλά τις πληροφορίες που παρείχαν οι μηχανές. Το 1983, ο Σοβιετικός αξιωματικός Stanislav Petrov έλαβε συναγερμό από το δορυφορικό σύστημα έγκαιρης προειδοποίησης που παρακολουθούσε: είχαν εντοπιστεί αμερικανικοί πυρηνικοί πύραυλοι που κατευθύνονταν προς τη Σοβιετική Ένωση. Αλλά αντί να ειδοποιήσει αμέσως τους ανωτέρους του, προκαλώντας σίγουρα πυρηνικά «αντίποινα», ο Πετρόφ ορθός διαπίστωσε ότι επρόκειτο για ψευδή συναγερμό.
Θα είχε κάνει ο Petrov την ίδια κλήση –ή έστω είχε την ευκαιρία να το κάνει– αν είχε εμπλακεί η τεχνητή νοημοσύνη; Στην πραγματικότητα, η εφαρμογή της μηχανικής μάθησης στα πυρηνικά όπλα θα μειώσει τον ανθρώπινο έλεγχο στις αποφάσεις για την ανάπτυξή τους.
Φυσικά, ένας αυξανόμενος αριθμός καθηκόντων διοίκησης, ελέγχου και επικοινωνίας έχουν αυτοματοποιηθεί από τότε που εφευρέθηκαν τα πυρηνικά όπλα. Όμως, καθώς προχωρά η μηχανική μάθηση, η διαδικασία με την οποία οι προηγμένες μηχανές λαμβάνουν αποφάσεις γίνεται όλο και πιο αδιαφανής – αυτό που είναι γνωστό ως «πρόβλημα του μαύρου κουτιού» της τεχνητής νοημοσύνης.
Η απλή διασφάλιση ότι ένας άνθρωπος λαμβάνει την τελική απόφαση εκτόξευσης δεν θα αρκούσε για να μετριάσει αυτούς τους κινδύνους. Όπως συμπέρανε ο ψυχολόγος John Hawley σε μια μελέτη του 2017, «Οι άνθρωποι είναι πολύ φτωχοί στην ικανοποίηση των απαιτήσεων παρακολούθησης και παρέμβασης που επιβάλλονται από τον εποπτικό έλεγχο».
Επιπλέον, όπως έδειξε το Πρόγραμμα Επιστήμης και Παγκόσμιας Ασφάλειας του Πανεπιστημίου Πρίνστον το 2020, οι διαδικασίες λήψης αποφάσεων των ηγετών σε μια πυρηνική κρίση είναι ήδη πολύ βιαστικές. Ακόμα κι αν η τεχνητή νοημοσύνη χρησιμοποιείται απλώς σε αισθητήρες και στόχευση, αντί για τη λήψη αποφάσεων εκτόξευσης – θα συντομεύσει το ήδη στενό χρονοδιάγραμμα για να αποφασιστεί η επόμενη κίνηση. Η πρόσθετη πίεση στους ηγέτες θα αυξήσει τον κίνδυνο εσφαλμένων υπολογισμών ή παράλογων επιλογών.
Μέχρι στιγμής, καμία πρωτοβουλία –από το εκτελεστικό διάταγμα του Μπάιντεν μέχρι τον κώδικα συμπεριφοράς της G7– δεν έχει καταφέρει να διασφαλιστεί ότι οι άνθρωποι θα διατηρήσουν τον έλεγχο της λήψης αποφάσεων για τα πυρηνικά όπλα. Όμως, όπως σημείωσε ο Γενικός Γραμματέας των Ηνωμένων Εθνών Αντόνιο Γκουτέρες, μια νομικά δεσμευτική συνθήκη που απαγορεύει τα «θανατηφόρα αυτόνομα οπλικά συστήματα» είναι ζωτικής σημασίας.
Ενώ μια τέτοια συνθήκη είναι ένα απαραίτητο πρώτο βήμα, ωστόσο, πρέπει να γίνουν πολύ περισσότερα. Όταν πρόκειται για πυρηνικά όπλα, η προσπάθεια πρόβλεψης, μετριασμού ή ρύθμισης των νέων κινδύνων που δημιουργούνται από τις αναδυόμενες τεχνολογίες δεν θα είναι ποτέ αρκετή. Πρέπει να αφαιρέσουμε εντελώς αυτά τα όπλα από την εξίσωση.
ΠΗΓΗ: project-syndicate.org