Ολόκληρη η ομάδα του OpenAI που επικεντρώθηκε στους υπαρξιακούς κινδύνους της Τεχνητής Νοημοσύνης είτε παραιτήθηκε είτε απορροφήθηκε από άλλες ερευνητικές ομάδες.
Τον Ιούλιο του περασμένου έτους, το OpenAI ανακοίνωσε το σχηματισμό μιας νέας ερευνητικής ομάδας που θα προετοιμαζόταν για την έλευση μιας υπερευφυούς Τεχνητής Νοημοσύνης ικανής να ξεγελάσει και να εξουδετερώσει τους δημιουργούς της. Ο Ilya Sutskever, επικεφαλής επιστήμονας της OpenAI και ένας από τους συνιδρυτές της εταιρείας, ορίστηκε ως συν-επικεφαλής αυτής της νέας ομάδας. Η OpenAI δήλωσε ότι η ομάδα θα λάβει το 20% της υπολογιστικής της ισχύος.
Τώρα η “ομάδα superalignment” της OpenAI δεν υπάρχει πια, όπως επιβεβαιώνει η εταιρεία. Αυτό έρχεται μετά τις αποχωρήσεις αρκετών ερευνητών που συμμετείχαν, την πρόσφατη ανακοίνωση ότι ο Sutskever αποχωρεί από την εταιρεία και την παραίτηση του άλλου συν-επικεφαλής της ομάδας. Το έργο της ομάδας θα απορροφηθεί από τις υπόλοιπες ερευνητικές προσπάθειες της OpenAI.
Η αποχώρηση του Sutskever έγινε πρωτοσέλιδο επειδή, παρόλο που είχε βοηθήσει τον CEO Sam Altman να ξεκινήσει την OpenAI το 2015 και να καθορίσει την κατεύθυνση της έρευνας που οδήγησε στο ChatGPT, ήταν επίσης ένα από τα τέσσερα μέλη του διοικητικού συμβουλίου που απέλυσε τον Altman τον Νοέμβριο. Ο Altman αποκαταστάθηκε ως CEO, πέντε χαοτικές ημέρες αργότερα, μετά από μια μαζική εξέγερση του προσωπικού της OpenAI και τη μεσολάβηση συμφωνίας στην οποία ο Sutskever και δύο άλλοι διευθυντές της εταιρείας αποχώρησαν από το διοικητικό συμβούλιο.
Λίγες ώρες αφότου ανακοινώθηκε η αποχώρηση του Sutskever, ο Jan Leike, ο πρώην ερευνητής της DeepMind που ήταν ο άλλος επικεφαλής της ομάδας superalignment, δημοσίευσε στο X ότι παραιτήθηκε.
Ούτε ο Sutskever ούτε ο Leike απάντησαν σε αιτήματα για σχολιασμό. Ο Sutskever δεν έδωσε εξηγήσεις για την απόφασή του να αποχωρήσει, αλλά προσέφερε υποστήριξη για την τρέχουσα πορεία της OpenAI σε μια ανάρτηση στο X. “Η πορεία της εταιρείας δεν ήταν τίποτα λιγότερο από ένα θαύμα, και είμαι βέβαιος ότι η OpenAI θα δημιουργήσει AGI που είναι τόσο ασφαλής όσο και επωφελής” υπό την τρέχουσα ηγεσία της, έγραψε.
Ο Leike δημοσίευσε ένα νήμα στο X εξηγώντας ότι η απόφασή του προήλθε από μια διαφωνία σχετικά με τις προτεραιότητες της εταιρείας και το πόσοι πόροι διατέθηκαν στην ομάδα του.
“Διαφωνούσα με την ηγεσία της OpenAI σχετικά με τις βασικές προτεραιότητες της εταιρείας για αρκετό καιρό, μέχρι που τελικά φτάσαμε σε σημείο ρήξης”, έγραψε ο Leike. “Τους τελευταίους μήνες η ομάδα μου πλέει κόντρα στον άνεμο. Μερικές φορές παλεύαμε για υπολογιστές και γινόταν όλο και πιο δύσκολο να κάνουμε αυτή την κρίσιμη έρευνα”.
Η διάλυση της ομάδας superalignment του OpenAI έρχεται να προστεθεί στις πρόσφατες ενδείξεις για ανακατατάξεις στο εσωτερικό της εταιρείας μετά την κρίση διακυβέρνησης του περασμένου Νοεμβρίου. Δύο ερευνητές της ομάδας, ο Leopold Aschenbrenner και ο Pavel Izmailov, απολύθηκαν για διαρροή μυστικών της εταιρείας, όπως ανέφερε το The Information τον περασμένο μήνα. Ένα άλλο μέλος της ομάδας, ο William Saunders, εγκατέλειψε την OpenAI τον Φεβρουάριο, σύμφωνα με ανάρτηση που έγινε σε ένα διαδικτυακό φόρουμ με το όνομά του.
Δύο ακόμη ερευνητές της OpenAI που εργάζονται στην πολιτική και τη διακυβέρνηση της Τεχνητής Νοημοσύνης φαίνεται επίσης να εγκατέλειψαν πρόσφατα την εταιρεία. Ο Cullen O’Keefe εγκατέλειψε το ρόλο του ως επικεφαλής της έρευνας στα όρια της πολιτικής τον Απρίλιο, σύμφωνα με το LinkedIn. Ο Daniel Kokotajlo, ένας ερευνητής της OpenAI που έχει συνυπογράψει αρκετές εργασίες σχετικά με τους κινδύνους των πιο ικανών μοντέλων Τεχνητής Νοημοσύνης, “εγκατέλειψε την OpenAI λόγω της απώλειας της εμπιστοσύνης ότι θα συμπεριφερόταν υπεύθυνα γύρω από την εποχή της AGI”, σύμφωνα με ανάρτηση που έγινε σε ένα διαδικτυακό φόρουμ με το όνομά του. Κανένας από τους ερευνητές που προφανώς αποχώρησαν δεν απάντησε σε αιτήματα σχολιασμού.
Το OpenAI αρνήθηκε να σχολιάσει τις αποχωρήσεις του Sutskever ή άλλων μελών της superalignment ομάδας ή το μέλλον των εργασιών του σχετικά με τους μακροπρόθεσμους κινδύνους της Τεχνητής Νοημοσύνης. Η έρευνα σχετικά με τους κινδύνους που συνδέονται με τα πιο ισχυρά μοντέλα θα διευθύνεται πλέον από τον John Schulman, ο οποίος είναι επικεφαλής της ομάδας που είναι υπεύθυνη για τη λεπτομερή ρύθμιση των μοντέλων Τεχνητής Νοημοσύνης μετά την εκπαίδευση.
Η superalignment ομάδα δεν ήταν η μόνη που μελετούσε το ερώτημα πώς να διατηρηθεί η Τεχνητή Νοημοσύνη υπό έλεγχο, αν και δημοσίως τοποθετήθηκε ως η κύρια που εργαζόταν στην πιο μακρινή εκδοχή αυτού του προβλήματος. Η ανάρτηση στο ιστολόγιο που ανακοίνωνε την superalignment ομάδα το περασμένο καλοκαίρι ανέφερε: “Επί του παρόντος, δεν έχουμε μια λύση για την καθοδήγηση ή τον έλεγχο μιας δυνητικά υπερευφυούς Τεχνητής Νοημοσύνης και την αποτροπή της από το να αποστατήσει”.
Σύμφωνα με το καταστατικό της OpenAI, η εταιρεία δεσμεύεται να αναπτύσσει με ασφάλεια και προς όφελος της ανθρωπότητας τη λεγόμενη Τεχνητή Γενική Νοημοσύνη ή τεχνολογία που ανταγωνίζεται ή υπερβαίνει τον άνθρωπο. Ο Sutskever και άλλοι υπεύθυνοι εκεί έχουν μιλήσει συχνά για την ανάγκη να προχωρήσουν με προσοχή. Όμως το OpenAI έχει επίσης αναπτύξει από νωρίς και έχει δημοσιοποιήσει πειραματικά έργα Τεχνητής Νοημοσύνης στο κοινό.
Το OpenAI διαφοροποιείτο άλλοτε μεταξύ των διακεκριμένων εργαστηρίων Τεχνητής Νοημοσύνης για την προθυμία με την οποία ερευνητικοί ηγέτες όπως ο Sutskever μιλούσαν για τη δημιουργία υπεράνθρωπης Τεχνητής Νοημοσύνης και για τη δυνατότητα μιας τέτοιας τεχνολογίας να στραφεί εναντίον της ανθρωπότητας. Αυτού του είδους οι δυσοίωνες συζητήσεις για την Τεχνητή Νοημοσύνη έγιναν πολύ πιο διαδεδομένες πέρυσι, αφότου η ChatGPT μετέτρεψε την OpenAI στην πιο εξέχουσα και υπό στενή παρακολούθηση τεχνολογική εταιρεία στον πλανήτη. Καθώς οι ερευνητές και οι υπεύθυνοι χάραξης πολιτικής πάλευαν με τις επιπτώσεις του ChatGPT και την προοπτική μιας πολύ πιο ικανής Τεχνητής Νοημοσύνης, έγινε λιγότερο αμφιλεγόμενη η ανησυχία για την Τεχνητή Νοημοσύνη που βλάπτει τον άνθρωπο ή την ανθρωπότητα στο σύνολό της.
Η υπαρξιακή αγωνία έχει έκτοτε υποχωρήσει -και η Τεχνητή Νοημοσύνη δεν έχει κάνει ακόμη ένα άλλο τεράστιο άλμα- αλλά η ανάγκη για ρύθμιση της Τεχνητής Νοημοσύνης παραμένει ένα καυτό θέμα. Τελευταία, η OpenAI παρουσίασε μια νέα έκδοση του ChatGPT που θα μπορούσε να αλλάξει και πάλι τη σχέση των ανθρώπων με την τεχνολογία με νέους ισχυρούς και ίσως προβληματικούς τρόπους.
Οι αποχωρήσεις των Sutskever και Leike έρχονται λίγο μετά την τελευταία μεγάλη αποκάλυψη της OpenAI – ένα νέο “πολυτροπικό” μοντέλο Τεχνητής Νοημοσύνης που ονομάζεται GPT-4o και επιτρέπει στο ChatGPT να βλέπει τον κόσμο και να συνομιλεί με έναν πιο φυσικό και ανθρώπινο τρόπο. Μια ζωντανή επίδειξη έδειξε τη νέα έκδοση του ChatGPT να μιμείται τα ανθρώπινα συναισθήματα και να προσπαθεί ακόμη και να φλερτάρει με τους χρήστες. Η OpenAI δήλωσε ότι θα διαθέσει το νέο περιβάλλον εργασίας στους χρήστες επί πληρωμή μέσα σε δύο εβδομάδες.
Δεν υπάρχει καμία ένδειξη ότι οι πρόσφατες αποχωρήσεις έχουν σχέση με τις προσπάθειες της OpenAI να αναπτύξει πιο ανθρώπινη Τεχνητή Νοημοσύνη ή να αποστείλει προϊόντα. Όμως οι τελευταίες εξελίξεις εγείρουν ηθικά ζητήματα σχετικά με την προστασία της ιδιωτικής ζωής, τη συναισθηματική χειραγώγηση και τους κινδύνους κυβερνοασφάλειας. Το OpenAI διατηρεί μια άλλη ερευνητική ομάδα που ονομάζεται ομάδα ετοιμότητας και η οποία επικεντρώνεται σε αυτά τα ζητήματα.