Το Generative AI μπορεί να βρίσκεται σε πτώση. Αυτό μπορεί να ακούγεται τραβηγμένο, ακόμη και παράλογο, δεδομένης της ταχείας υιοθέτησης των εργαλείων παραγωγής τεχνητής νοημοσύνης, με το ChatGPT, να ξεπερνά ακόμη και το TikTok και το WhatsApp. Σε τελική ανάλυση, όλοι — από επενδυτές και μεγάλες τεχνολογίες μέχρι σημαντικούς παράγοντες διαφημίσεων και εκδότες — φαίνεται να προσπαθούν να αποκτήσουν βάση σε μια επικείμενη εποχή που βασίζεται στην τεχνητή νοημοσύνη.
Τι γίνεται όμως αν αυτή η ίδια η έκρηξη δημοτικότητας σηματοδοτεί την αρχή μιας πτώσης;
Η άνοδος της γενετικής τεχνητής νοημοσύνης κινδυνεύει να πλημμυρίσει το διαδίκτυο με συνθετικό περιεχόμενο. Στην πραγματικότητα, αυτό συμβαίνει ήδη. Από την ημερομηνία δημοσίευσης αυτού του άρθρου, το Newsguard, για παράδειγμα, έχει εντοπίσει 537 ιστότοπους ειδήσεων και πληροφοριών που δημιουργούνται από AI. Σκεφτείτε επίσης την περίεργη περίπτωση ενός βιβλίου για τις πυρκαγιές του Μάουι, που καταγράφεται στο Amazon με ημερομηνία δημοσίευσης τις 10 Αυγούστου, το οποίο ισχυρίζεται ότι καταγράφει γεγονότα από τις 8 έως τις 11 Αυγούστου βασιζόμενο σε διάφορες πηγές, όπως επιστημονική έρευνα, μαρτυρίες και επίσημες αναφορές. Μια πρόσφατη μελέτη μάλιστα εκτιμά ότι έως και το 46% των απομακρυσμένων εργαζομένων στο Amazon Mechanical Turk μπορεί να χρησιμοποιούν μεγάλα γλωσσικά μοντέλα (LLM) για εργασίες παραγωγής κειμένου.
Αυτό μας φέρνει σε μια ανησυχητική, αλλά και εντελώς πιθανή προοπτική: τα μελλοντικά μοντέλα τεχνητής νοημοσύνης θα μπορούσαν κατά κύριο λόγο να εκπαιδεύονται με τα δικά τους αποτελέσματα. Θα μπορούσε ένα τέτοιο μοντέλο να συλλάβει πραγματικά τις αποχρώσεις των ανθρώπινων σκέψεων και συμπεριφοράς;
Μια πρόσφατη μελέτη έδειξε ότι τα μοντέλα εκπαίδευσης που βασίζονται σε δεδομένα από άλλα μοντέλα γενετικής τεχνητής νοημοσύνης οδηγούν σε μια μη αναστρέψιμη, εκφυλιστική διαδικασία. Το τελικό μοντέλο αρχίζει να υπερεκτιμά τα πιθανά γεγονότα ενώ υποτιμά τα απίθανα, χάνοντας τελικά την επαφή με την πραγματική κατανομή δεδομένων.
Μια άλλη μελέτη τεκμηρίωσε ένα παρόμοιο μοτίβο, το οποίο ονομάστηκε Διαταραχή Αυτοφαγίας Μοντέλου (MAD). Δείχνει ότι η αναδρομική εκπαίδευση των παραγωγικών μοντέλων στο δικό τους περιεχόμενο οδηγεί σε υποβάθμιση ποιότητας και ποικιλομορφία των μοντέλων. Με απλά λόγια, τα μοντέλα παραγωγής γίνονται “MAD” εκτός εάν εμποτίζονται τακτικά με φρέσκα, πραγματικά ανθρώπινα δεδομένα.
Το Δίλημμα του Οργανισμού
Αλλά το πρόβλημα εκτείνεται πέρα από τον άμεσο κύκλο των προγραμματιστών LLM ή των οργανισμών που ενσωματώνουν τα LLM στις δραστηριότητές τους. Εξετάστε πλατφόρμες μέσων κοινωνικής δικτύωσης, ιστότοπους ηλεκτρονικού εμπορίου και εκπαιδευτικές πύλες που είναι χτισμένες στο θεμέλιο του αυθεντικού περιεχομένου. Η διαφαινόμενη απειλή μιας κρίσης αυθεντικότητας θα μπορούσε να θέσει σε σοβαρό κίνδυνο αξία τους, ειδικά δεδομένου ότι το συναίσθημα των καταναλωτών κλίνει ενάντια στο περιεχόμενο που δημιουργείται αλγοριθμικά.
Συνολικά, φαίνεται ξεκάθαρο ότι οδεύουμε προς ένα νέο ψηφιακό τοπίο όπου το γνήσιο ανθρώπινο περιεχόμενο είναι όλο και πιο σπάνιο αγαθό. Και, όπως όλοι γνωρίζουμε από το Economics 101, η αξία του θα πρέπει επομένως να αυξηθεί. Αυτό απαιτεί επανεξέταση των κινήτρων και των οικονομικών που περιβάλλουν το ανθρωπογενές περιεχόμενο.
Ένα νέο οικονομικό και τεχνολογικό μοντέλο για την ανθρώπινη δημιουργικότητα
Ο τρέχων τρόπος λειτουργίας των προγραμματιστών LLM – scrape data, train models, capitalize – τους έχει εξυπηρετήσει μέχρι στιγμής καλά. Ωστόσο, η αυξανόμενη δυσαρέσκεια μεταξύ των πλατφορμών περιεχομένου υποδηλώνει ότι αυτή η μονόπλευρη σχέση δεν είναι βιώσιμη. Σκεφτείτε την πρόσφατη απόφαση της Reddit να χρεώσει τρίτα μέρη για πρόσβαση στο API, μια κίνηση που οφείλεται σε μεγάλο βαθμό στις ανησυχίες ότι τα εργαλεία παραγωγής τεχνητής νοημοσύνης αποκομίζουν οφέλη χωρίς να ανταποδίδουν κέρδη για την εταιρεία.
Ορισμένοι κορυφαίοι προγραμματιστές LLM, όπως το Open AI και η Google, αναγνωρίζουν αυτή τη στροφή και προσπαθούν να προσαρμοστούν διερευνώντας συμφωνίες αδειοδότησης με εκδότες. Η Open AI, για παράδειγμα, έχει ήδη υπογράψει συμφωνίες συνεργασίας με το Associated Press για ειδήσεις και το Shutterstock για εικόνες. Το Open AI κυκλοφόρησε επίσης πρόσφατα μια λειτουργία που επιτρέπει στους προγραμματιστές να εξαιρεθούν από την απόσπαση των δεδομένων τους.
Αν και αυτά είναι βήματα προς τη σωστή κατεύθυνση, δεν αντιμετωπίζουν το βασικό υποκείμενο ζήτημα: Πώς δημιουργούμε ένα οικοσύστημα όπου οι άνθρωποι ενθαρρύνονται να συνεχίσουν να δημιουργούν και να μοιράζονται αυθεντικό περιεχόμενο; Για να το πετύχουμε αυτό, θα πρέπει να στηρίζουμε την προσέγγισή μας και να επικεντρώσουμε τις προσπάθειές μας σε τρεις πυλώνες: δίκαιη αποζημίωση για την ανθρώπινη δημιουργικότητα, ενισχυμένη δράση έναντι των δημιουργικών αποτελεσμάτων μέσω της διαφάνειας και τεχνολογικές καινοτομίες που οριοθετούν ξεκάθαρα το ανθρωπογενές από αυτό που δημιουργείται από τη μηχανή.
Το μέλλον του Generative AI
Εάν είστε υπεύθυνος λήψης αποφάσεων σε μια εταιρεία που είτε αναπτύσσει παραγωγικά εργαλεία AI είτε βασίζεται σε μεγάλο βαθμό στο περιεχόμενο, η μελλοντική σας ανταγωνιστικότητα θα μπορούσε κάλλιστα να εξαρτηθεί από την αξιοποίηση της αυθεντικής ανθρώπινης δημιουργικότητας. Είναι καιρός να διερευνήσουμε τρόπους κοινής χρήσης της οικονομικής αξίας που δημιουργεί η τεχνητή νοημοσύνη, αξιοποιώντας τα εγγενή κίνητρα των δημιουργών περιεχομένου και καθιερώνοντας αξιόπιστες μεθόδους για την επαλήθευση περιεχομένου. Αυτό δεν είναι μόνο θέμα εταιρικής ευθύνης, είναι στρατηγική επιταγή για μακροπρόθεσμη επιτυχία.
Συνολικά, το πραγματικό εμπόδιο στη γενετική τεχνητή νοημοσύνη μπορεί να μην είναι η υπολογιστική ικανότητα ή οι παράμετροι του μοντέλου, αλλά η μοναδική ανθρώπινη επαφή μας. Ωστόσο, βρισκόμαστε στο χείλος ενός ψηφιακού κόσμου που γεμίζει όλο και περισσότερο με ακαταστασία που δημιουργείται από την τεχνητή νοημοσύνη. Μήπως έχουμε ήδη δει την κορυφή της γενετικής τεχνητής νοημοσύνης; Ο τρόπος με τον οποίο εκτυλίσσεται το επόμενο κεφάλαιο εξαρτάται από την ικανότητά μας να αναγνωρίζουμε, να προστατεύουμε, να καλλιεργούμε και να αντιμετωπίζουμε δίκαια την ανθρώπινη δημιουργικότητα.
ΠΗΓΗ: hbr.org