Κάντε εικόνα έναν υπολογιστή που θα μπορούσε να ολοκληρώσει τις προτάσεις σας, χρησιμοποιώντας μια καλύτερη αποστροφή της φράσης, ή χρησιμοποιήστε μια μελωδία για να συνθέσετε μουσική που ακούγεται σαν να τη γράφατε. Λύστε ένα πρόβλημα δημιουργώντας εκατοντάδες γραμμές κώδικα υπολογιστή. Κατά μία έννοια, αυτός ο υπολογιστής είναι απλώς ο απόγονος των ηλεκτρικών αργαλειών και των ατμομηχανών που επέσπευσαν τη Βιομηχανική Επανάσταση. Αλλά ανήκει επίσης σε μια νέα κατηγορία μηχανών, επειδή κατανοεί τα σύμβολα στη γλώσσα, τη μουσική και τον προγραμματισμό και τα χρησιμοποιεί με τρόπους που φαίνονται δημιουργικοί. Κάτι σαν άνθρωπος.
Τα «μοντέλα θεμελίωσης» που μπορούν να κάνουν αυτά τα πράγματα αντιπροσωπεύουν μια σημαντική ανακάλυψη στην τεχνητή νοημοσύνη, ή αλλιώς ai. Υπόσχονται επίσης μια επανάσταση, αλλά αυτή θα επηρεάσει το εγκεφαλικό έργο υψηλού επιπέδου που η Βιομηχανική Επανάσταση δεν άγγιξε ποτέ. Δεν υπάρχουν εγγυήσεις για το τι θα ακολουθήσει — σε τελική ανάλυση, ο ai έχει σκοντάψει στο παρελθόν. Αλλά είναι καιρός να δούμε την υπόσχεση και τους κινδύνους του επόμενου μεγάλου πράγματος στη νοημοσύνη των μηχανών.
Τα μοντέλα θεμελίωσης είναι η πιο πρόσφατη ανατροπή στη «βαθιά μάθηση» (dl), μια τεχνική που αναδείχθηκε πριν από δέκα χρόνια και τώρα κυριαρχεί στον τομέα του ai. Με βάση τη δικτυωμένη δομή των νευρώνων στον ανθρώπινο εγκέφαλο, τα συστήματα dl «εκπαιδεύονται» χρησιμοποιώντας εκατομμύρια ή δισεκατομμύρια παραδείγματα κειμένων, εικόνων ή αποσπασμάτων ήχου. Τα τελευταία χρόνια το κόστος με αερόστατο, σε χρόνο και χρήμα, των ολοένα και μεγαλύτερων συστημάτων εκπαίδευσης dl είχε προκαλέσει ανησυχίες ότι η τεχνική έφτανε στα όριά της. Κάποιοι ανησυχούσαν για έναν «άι χειμώνα». Αλλά τα μοντέλα θεμελίωσης δείχνουν ότι η κατασκευή ολοένα μεγαλύτερου και πιο σύνθετου dl συνεχίζει πράγματι να ξεκλειδώνει όλο και πιο εντυπωσιακές νέες δυνατότητες. Κανείς δεν ξέρει πού βρίσκεται το όριο.
Τα μοντέλα που προκύπτουν είναι μια νέα μορφή δημιουργικής, μη ανθρώπινης νοημοσύνης. Τα συστήματα είναι αρκετά εξελιγμένα τόσο για να διαθέτουν γνώση της γλώσσας όσο και για να παραβιάζουν τους κανόνες με συνέπεια. Ένας σκύλος δεν μπορεί να γελάσει με ένα αστείο στο New Yorker, αλλά ένας Ai μπορεί να εξηγήσει γιατί είναι αστείο – ένα κατόρθωμα που, ειλικρινά, μερικές φορές ξεπερνά τους αναγνώστες του New Yorker. Όταν ζητήσαμε από ένα από αυτά τα μοντέλα να δημιουργήσει ένα κολάζ χρησιμοποιώντας τον τίτλο αυτού του ηγέτη και τίποτα περισσότερο, βρήκε το εξώφυλλο για τις αμερικανικές και ασιατικές εκδόσεις μας, στην εικόνα (προσπαθήσαμε να αποσπάσουμε την προσοχή των ανήσυχων ανθρώπων σχεδιαστών μας με ένα διαφορετικό εξώφυλλο στο οι ευρωπαϊκές μας εκδόσεις).
Τα μοντέλα θεμελίωσης έχουν μερικές εκπληκτικές και χρήσιμες ιδιότητες. Το πιο τρομακτικό από αυτά είναι η «αναδυόμενη» συμπεριφορά τους — δηλαδή, δεξιότητες (όπως η ικανότητα να κάνεις ένα αστείο ή να ταιριάξεις μια κατάσταση και μια παροιμία) που προκύπτουν από το μέγεθος και το βάθος των μοντέλων, αντί να είναι αποτέλεσμα εσκεμμένων σχέδιο. Ακριβώς όπως μια γρήγορη διαδοχή στατικών φωτογραφιών δίνει την αίσθηση της κίνησης, έτσι και τρισεκατομμύρια δυαδικές υπολογιστικές αποφάσεις συγχωνεύονται σε ένα προσομοιότυπο ρευστής ανθρώπινης κατανόησης και δημιουργικότητας που, ό,τι και να πουν οι φιλόσοφοι, μοιάζει πολύ με το πραγματικό. Ακόμη και οι δημιουργοί αυτών των συστημάτων εκπλήσσονται με τη δύναμή τους.
Αυτή η νοημοσύνη είναι ευρεία και προσαρμόσιμη. Είναι αλήθεια ότι τα μοντέλα θεμελίωσης είναι ικανά να συμπεριφέρονται σαν ηλίθια, αλλά τότε είναι και οι άνθρωποι. Αν ρωτήσετε κάποιον που κέρδισε το βραβείο Νόμπελ φυσικής το 1625, μπορεί να υποδηλώνει τον Γαλιλαίο, τον Μπέικον ή τον Κέπλερ, χωρίς να καταλαβαίνουν ότι το πρώτο βραβείο απονεμήθηκε το 1901. Ωστόσο, είναι επίσης προσαρμόσιμα με τρόπους που δεν ήταν προηγουμένως, ίσως επειδή Σε κάποιο επίπεδο υπάρχει ομοιότητα μεταξύ των κανόνων χειρισμού συμβόλων σε κλάδους τόσο διαφορετικούς όπως το σχέδιο, η δημιουργική γραφή και ο προγραμματισμός υπολογιστή. Αυτό το εύρος σημαίνει ότι τα μοντέλα θεμελίωσης θα μπορούσαν να χρησιμοποιηθούν σε πολλές εφαρμογές, από τη βοήθεια στην εύρεση νέων φαρμάκων με τη χρήση προβλέψεων σχετικά με τον τρόπο με τον οποίο οι πρωτεΐνες αναδιπλώνονται σε τρεις διαστάσεις, έως την επιλογή ενδιαφέροντων γραφημάτων από σύνολα δεδομένων και την αντιμετώπιση ερωτήσεων ανοιχτού τύπου με την αναζήτηση τεράστιων βάσεων δεδομένων για τη διατύπωση απαντήσεων που ανοίγουν νέους τομείς έρευνας.
Αυτό είναι συναρπαστικό και υπόσχεται να φέρει μεγάλα οφέλη, τα περισσότερα από τα οποία πρέπει ακόμα να φανταστούμε. Αλλά προκαλεί επίσης ανησυχίες. Αναπόφευκτα, οι άνθρωποι φοβούνται ότι είναι αρκετά δημιουργικό για να εκπλήξει τους δημιουργούς τους μπορεί να γίνει κακόβουλο. Στην πραγματικότητα, τα μοντέλα θεμελίωσης απέχουν έτη φωτός από τα αισθανόμενα ρομπότ δολοφόνων που αγαπά το Χόλιγουντ. Οι τερματιστές τείνουν να είναι συγκεντρωμένοι, εμμονικοί και τυφλοί απέναντι στις ευρύτερες συνέπειες των πράξεών τους. Το θεμελιώδες ai, αντίθετα, είναι ασαφές. Ομοίως, οι άνθρωποι ανησυχούν για τα τεράστια ποσά εκπαίδευσης ισχύος που καταναλώνουν αυτά τα μοντέλα και τις εκπομπές που παράγουν. Ωστόσο, οι ais γίνονται πιο αποτελεσματικοί και οι γνώσεις τους μπορεί κάλλιστα να είναι ουσιαστικές για την ανάπτυξη της τεχνολογίας που επιταχύνει τη στροφή προς τις ανανεώσιμες πηγές ενέργειας.
Μια πιο διεισδυτική ανησυχία είναι ποιος ελέγχει τα μοντέλα θεμελίωσης. Η εκπαίδευση ενός πολύ μεγάλου συστήματος όπως η παλάμη της Google κοστίζει περισσότερα από 10 εκατομμύρια δολάρια κάθε φορά και απαιτεί πρόσβαση σε τεράστιο όγκο δεδομένων — όσο περισσότερη υπολογιστική ισχύς και όσο περισσότερα δεδομένα τόσο το καλύτερο. Αυτό αυξάνει το φάσμα μιας τεχνολογίας που συγκεντρώνεται στα χέρια ενός μικρού αριθμού τεχνολογικών εταιρειών ή κυβερνήσεων.
Εάν ναι, τα δεδομένα εκπαίδευσης θα μπορούσαν να εδραιώσουν περαιτέρω τις προκαταλήψεις του κόσμου — και μάλιστα με έναν ιδιαίτερα αποπνικτικό και δυσάρεστο τρόπο. Θα εμπιστευόσασταν ένα δεκάχρονο παιδί του οποίου όλη η αίσθηση της πραγματικότητας είχε διαμορφωθεί με το σερφάρισμα στο διαδίκτυο; Θα μπορούσαν να στρατολογηθούν Κινέζοι και Αμερικανοί εκπαιδευμένοι σε έναν ιδεολογικό αγώνα για να κάμψουν τα μυαλά; Τι θα συμβεί με τους πολιτισμούς που εκπροσωπούνται ελάχιστα στο διαδίκτυο;
Και μετά τίθεται το ζήτημα της πρόσβασης. Προς το παρόν, τα μεγαλύτερα μοντέλα έχουν περιοριστεί, για να αποτραπεί η χρήση τους για άθλιους σκοπούς, όπως η δημιουργία ψευδών ειδήσεων. Η Openai, μια startup, έχει σχεδιάσει το μοντέλο της, που ονομάζεται dall-e 2, σε μια προσπάθεια να την εμποδίσει να παράγει βίαιες ή πορνογραφικές εικόνες. Οι εταιρείες έχουν δίκιο να φοβούνται την κατάχρηση, αλλά όσο πιο ισχυρά είναι αυτά τα μοντέλα, τόσο πιο περιορισμένη πρόσβαση σε αυτά δημιουργεί μια νέα ελίτ. Η αυτορρύθμιση είναι απίθανο να λύσει το δίλημμα.
Φέρτε την επανάσταση
Εδώ και χρόνια λέγεται ότι ο αυτοματισμός που λειτουργεί με AI αποτελεί απειλή για τους ανθρώπους σε επαναλαμβανόμενες, συνηθισμένες εργασίες και ότι οι καλλιτέχνες, οι συγγραφείς και οι προγραμματιστές ήταν πιο ασφαλείς. Τα μοντέλα θεμελίωσης αμφισβητούν αυτή την υπόθεση. Αλλά δείχνουν επίσης πώς το ai μπορεί να χρησιμοποιηθεί ως βοηθητικό λογισμικό για τη βελτίωση της παραγωγικότητας. Αυτή η νοημοσύνη μηχανής δεν μοιάζει με το ανθρώπινο είδος, αλλά προσφέρει κάτι εντελώς διαφορετικό. Αν το χειριστεί κανείς σωστά, είναι πιο πιθανό να συμπληρώσει την ανθρωπότητα παρά να τη σφετεριστεί.