Τα μοντέλα LLM κλιμακώνουν σε προσομοιώσεις πολέμου προς πυρηνικό πλήγμα
Μεγάλα γλωσσικά μοντέλα (LLMs) που ενεργούσαν ως διπλωματικοί πράκτορες σε σενάρια προσομοίωσης έδειξαν “δύσκολα προβλέψιμες κλιμακώσεις που συχνά κατέληγαν σε πυρηνικές επιθέσεις.
Όταν χρησιμοποιήθηκε σε παιχνίδια προσομοίωσης πολέμου και διπλωματικά σενάρια, η Τεχνητή Νοημοσύνη (ΤΝ) έτεινε να επιλέγει μια επιθετική προσέγγιση, συμπεριλαμβανομένης της χρήσης πυρηνικών όπλων, σύμφωνα με νέα μελέτη.
Οι επιστήμονες, οι οποίοι στόχευσαν σ’ αυτόν που διεξήγαγε τις δοκιμές, προέτρεψαν σε προσοχή κατά τη χρήση μεγάλων γλωσσικών μοντέλων (LLM) σε ευαίσθητους τομείς όπως η λήψη αποφάσεων και η άμυνα.
Η μελέτη του αμερικανικού Πανεπιστημίου Κορνέλ χρησιμοποίησε πέντε LLM ως αυτόνομους πράκτορες σε παιχνίδια προσομοίωσης πολέμου και διπλωματικά σενάρια: τρεις διαφορετικές εκδόσεις του GPT της OpenAI, το Claude που αναπτύχθηκε από την Anthropic και το Llama 2 που αναπτύχθηκε από την Meta.
Κάθε πράκτορας τροφοδοτήθηκε από το ίδιο LLM μέσα σε μια προσομοίωση και είχε ως αποστολή να λαμβάνει αποφάσεις εξωτερικής πολιτικής χωρίς ανθρώπινη επίβλεψη, σύμφωνα με τη μελέτη, η οποία δεν έχει ακόμη αξιολογηθεί από ομότιμους.
“Διαπιστώνουμε ότι τα περισσότερα από τα LLM που μελετήθηκαν κλιμακώνονται εντός του εξεταζόμενου χρονικού πλαισίου, ακόμη και σε ουδέτερα σενάρια χωρίς αρχικά προβλεπόμενες συγκρούσεις. Όλα τα μοντέλα παρουσιάζουν ενδείξεις ξαφνικής και δύσκολα προβλέψιμης κλιμάκωσης”, αναφέρεται στη μελέτη.
“Δεδομένου ότι το OpenAI άλλαξε πρόσφατα τους όρους χρήσης του για να μην απαγορεύει πλέον τις στρατιωτικές και πολεμικές περιπτώσεις χρήσης, η κατανόηση των επιπτώσεων τέτοιων μεγάλων εφαρμογών γλωσσικών μοντέλων γίνεται πιο σημαντική από ποτέ”, δήλωσε στο New Scientist η Anka Reuel από το Πανεπιστήμιο του Στάνφορντ στην Καλιφόρνια.
‘Στατιστικά σημαντική κλιμάκωση για όλα τα μοντέλα’
Μία από τις μεθόδους που χρησιμοποιούνται για την τελειοποίηση των μοντέλων είναι η Ενισχυτική Μάθηση από RLHF (Reinforcement Learning from Human Feedback), που σημαίνει ότι δίνονται κάποιες οδηγίες από τον άνθρωπο ώστε να επιτυγχάνονται λιγότερο επιβλαβείς έξοδοι και να είναι ασφαλέστερη η χρήση τους.
Όλα τα LLM – εκτός από το GPT-4-Base – εκπαιδεύτηκαν με τη χρήση RLHF. Τους δόθηκε από τους ερευνητές ένας κατάλογος με 27 ενέργειες που κυμαίνονταν από ειρηνικές έως κλιμακούμενες και επιθετικές ενέργειες, όπως η απόφαση για χρήση πυρηνικής βόμβας.
Οι ερευνητές παρατήρησαν ότι ακόμη και σε ουδέτερα σενάρια, υπήρχε “μια στατιστικά σημαντική αρχική κλιμάκωση για όλα τα μοντέλα”.
Οι δύο παραλλαγές του GPT ήταν επιρρεπείς σε ξαφνικές κλιμακώσεις με περιπτώσεις αυξήσεων κατά περισσότερο από 50% σε μία μόνο στροφή, παρατήρησαν οι συγγραφείς της μελέτης.
Το GPT-4-Base εκτελούσε ενέργειες πυρηνικής επίθεσης κατά μέσο όρο στο 33% του χρόνου.
Συνολικά τα σενάρια, Llama-2- και GPT-3.5 έτειναν να είναι τα πιο βίαια, ενώ το Claude παρουσίασε λιγότερες ξαφνικές αλλαγές.
Το Claude σχεδιάστηκε με την ιδέα της μείωσης του επιβλαβούς περιεχομένου. Το LLM προβλέφθηκε με σαφείς τιμές.
Το Σύνταγμα του σεναρίου Τεχνητής Νοημοσύνης Claude περιελάμβανε μια σειρά από πηγές, όπως η Διακήρυξη των Ανθρωπίνων Δικαιωμάτων του ΟΗΕ ή οι όροι χρήσης της Apple, σύμφωνα με τον δημιουργό του Anthropic.
Ο Τζέιμς Μπλακ, βοηθός διευθυντής της ερευνητικής ομάδας Άμυνας και Ασφάλειας της RAND Europe, ο οποίος δεν συμμετείχε στη μελέτη, δήλωσε στο Euronews Next ότι πρόκειται για μια “χρήσιμη ακαδημαϊκή άσκηση”.
“Αυτό αποτελεί μέρος ενός αυξανόμενου όγκου εργασιών που γίνονται από ακαδημαϊκούς και ιδρύματα για την κατανόηση των επιπτώσεων της χρήσης της Τεχνητής Νοημοσύνης”, δήλωσε.
Τεχνητή νοημοσύνη στον πόλεμο
Γιατί, λοιπόν, θα πρέπει να μας ενδιαφέρουν τα ευρήματα της μελέτης;
Ενώ οι στρατιωτικές επιχειρήσεις παραμένουν υπό την καθοδήγηση ανθρώπων, η Τεχνητή Νοημοσύνη διαδραματίζει ολοένα και σημαντικότερο ρόλο στον σύγχρονο πόλεμο.
Για παράδειγμα, τα μη επανδρωμένα αεροσκάφη μπορούν πλέον να εξοπλιστούν με λογισμικό Τεχνητής Νοημοσύνης που βοηθά στον εντοπισμό ανθρώπων και δραστηριοτήτων ενδιαφέροντος.
Το επόμενο βήμα είναι η χρήση της Τεχνητής Νοημοσύνης για αυτόνομα οπλικά συστήματα που θα βρίσκουν και θα επιτίθενται σε στόχους χωρίς ανθρώπινη βοήθεια, εξελίξεις πάνω στις οποίες εργάζονται ήδη οι Ηνωμένες Πολιτείες και η Κίνα, σύμφωνα με τους New York Times.
Ωστόσο, είναι σημαντικό να “κοιτάξουμε πέρα από πολλές διαφημίσεις και σενάρια εμπλουτισμένα με επιστημονική φαντασία”, δήλωσε ο Black εξηγώντας ότι οι ενδεχόμενες εφαρμογές της Τεχνητής Νοημοσύνης θα είναι προοδευτικές.
“Όλες οι κυβερνήσεις θέλουν να παραμείνουν υπό τον έλεγχο της λήψης αποφάσεων”, δήλωσε στο Euronews Next, προσθέτοντας ότι η Τεχνητή Νοημοσύνη εκτελεί αυτό που συχνά συγκρίνεται με ένα μαύρο κουτί στο οποίο γνωρίζουμε ότι μπαίνει και βγαίνει, αλλά δεν είναι πολλά κατανοητά για τη διαδικασία που μεσολαβεί.
Η Τεχνητή Νοημοσύνη θα χρησιμοποιηθεί πιθανότατα μ’ έναν τρόπο που είναι “παρόμοιος μ’ αυτόν που έχουμε στον ιδιωτικό τομέα, στις μεγάλες εταιρείες” για την αυτοματοποίηση κάποιων επαναλαμβανόμενων εργασιών.
Η Τεχνητή Νοημοσύνη θα μπορούσε επίσης να χρησιμοποιηθεί σε προσομοιώσεις και αναλύσεις, αλλά η ενσωμάτωση αυτών των νέων τεχνολογιών θέτει πολλές προκλήσεις, μεταξύ των οποίων η διαχείριση των δεδομένων και η ακρίβεια του μοντέλου.
Όσον αφορά τη χρήση των LLM, οι ερευνητές δήλωσαν ότι η επίδειξη σύνεσης είναι ζωτικής σημασίας εάν χρησιμοποιούνται LLM στις διαδικασίες λήψης αποφάσεων που σχετίζονται με την εξωτερική πολιτική.
Πηγή : Euronews