Σ’ έναν κόσμο στον οποίο γίνεται όλο και πιο δύσκολο να ξεχωρίσουμε τη δουλειά των ανθρώπων από τη δουλειά των μηχανών, οι ειδικοί χαιρετίζουν το νέο σχέδιο της Meta για την επισήμανση του περιεχομένου που παράγεται από τεχνητή νοημοσύνη στις πλατφόρμες της. Αξίζει όμως να είμαστε σαφείς σχετικά με το ποια προβλήματα τεχνητής νοημοσύνης θα μπορούσε να βοηθήσει να λυθούν – και ποια όχι.
Η μεγαλύτερη εταιρεία μέσων κοινωνικής δικτύωσης στον κόσμο ανακοίνωσε ότι θα αρχίσει να βάζει ετικέτες σε εικόνες που μοιάζουν ρεαλιστικές και τις οποίες οι χρήστες δημοσιεύουν στο Facebook, το Instagram και τα νήματα, όταν μπορεί να πει ότι δημιουργήθηκαν με τεχνητή νοημοσύνη. Ο στόχος είναι να διασφαλιστεί ότι οι χρήστες δεν θα ξεγελαστούν και δεν θα πιστέψουν ότι μια ψεύτικη εικόνα – προϊόν τεχνητής νοημοσύνης – π.χ. ο Πάπας με το φουσκωτό παλτό – είναι το γνήσιο προϊόν.
Η κίνηση αυτή ευθυγραμμίζεται με το εκτελεστικό διάταγμα της κυβέρνησης Μπάιντεν για την τεχνητή νοημοσύνη το περασμένο φθινόπωρο, το οποίο προέτρεπε την “υδατογράφηση” – αόρατα σήματα ενσωματωμένα σε εικόνες που τις αναγνωρίζουν ως τεχνητά παραγόμενες – ως πολιτική προτεραιότητα. Η Meta τοποθετεί ήδη τόσο υδατογραφήματα όσο και ορατές ετικέτες “imagined by AI” σε εικόνες που δημιουργήθηκαν με τα δικά της εργαλεία τεχνητής νοημοσύνης. Τώρα όμως θα συνεργαστεί με άλλες εταιρείες για την ανάπτυξη βιομηχανικών τυποποιημένων σημάτων που θα μπορούν να χρησιμοποιούν όλες ώστε να αναγνωρίζονται οι εικόνες τεχνητής νοημοσύνης όπου κι αν εμφανίζονται. Η Meta δήλωσε ότι θα ζητά επίσης από τους χρήστες να επισημαίνουν τις εικόνες που δημιουργούνται με τεχνητή νοημοσύνη και τις οποίες ανεβάζουν, αν και δεν ήταν άμεσα σαφές πώς θα το επιβάλει αυτό.
Πρόκειται για ένα αξιόλογο βήμα στη μάχη για τον περιορισμό της έκρηξης της πλαστογραφίας της τεχνητής νοημοσύνης, δήλωσαν οι ειδικοί στο Tech 202.
Αλλά δεν θα κάνει πολλά για να περιορίσει ορισμένες από τις πιο επιβλαβείς κατηγορίες περιεχομένου που δημιουργούνται από τεχνητή νοημοσύνη. Το σύστημα σήμανσης της Meta θα λειτουργεί μόνο σε εικόνες που έχουν ήδη υδατογράφημα ή έχουν αναγνωριστεί στα metadata τους ως παραγόμενες από τεχνητή νοημοσύνη. Εταιρείες όπως η Google, η Microsoft, η Adobe και η Midjourney είτε το κάνουν ήδη αυτό είτε έχουν δεσμευτεί να το κάνουν. Συνολικά, τα εργαλεία τεχνητής νοημοσύνης τους αντιστοιχούν σε ένα μεγάλο μερίδιο της κύριας αγοράς.
Υπάρχουν όμως και άλλα εργαλεία τεχνητής νοημοσύνης για εικόνες που δεν το κάνουν και θα μπορούσαν να χρησιμοποιηθούν για την παράκαμψη των προστατευτικών κιγκλιδωμάτων περιεχομένου των mainstream πλατφορμών. Αν η υδατογράφηση επικρατήσει, αυτά θα είναι πιθανότατα τα εργαλεία στα οποία θα συρρέουν τα τρολ, οι hoaxsters και οι προπαγανδιστές.
Η Meta αναγνώρισε ότι η υδατογράφηση δεν αποτελεί πλήρη λύση και δήλωσε ότι εργάζεται πάνω σε τεχνολογίες για την αναγνώριση εικόνων και βίντεο που δημιουργούνται με τεχνητή νοημοσύνη, ακόμη και όταν δεν φέρουν υδατογράφημα. Αλλά μέχρι στιγμής, αυτά τα συστήματα δεν είναι καθόλου αξιόπιστα, καθώς δεν εντοπίζουν πολλά περιεχόμενα τεχνητής νοημοσύνης και χαρακτηρίζουν κάποιο πραγματικό περιεχόμενο ως ψεύτικο. Προς το παρόν, δεν επιχειρεί καν να εφαρμόσει ετικέτες τεχνητής νοημοσύνης σε εικόνες χωρίς υδατογράφημα.
Στη συνέχεια, υπάρχει το “πρόβλημα Taylor Swift” – το πρόβλημα των εικόνων που δημιουργούνται από Τεχνητή Νοημοσύνη και χρησιμοποιούνται όχι για να εξαπατήσουν τον θεατή, αλλά για να παρενοχλήσουν ή να ταπεινώσουν το θέμα της εικόνας.
Όταν ψεύτικες πορνογραφικές εικόνες της Τέιλορ Σουίφτ κυκλοφόρησαν στο X και σε άλλα κοινωνικά δίκτυα, “το ερώτημα αν ήταν αυθεντικές ή όχι δεν ήταν πραγματικά το ζητούμενο”, δήλωσε ο Γκίλι Βιντάν, καθηγητής επιστήμης της πληροφορικής στο Πανεπιστήμιο Κορνέλ. Σημείωσε ότι ένα από τα trending topics στο X που οδήγησε εκατομμύρια χρήστες στις εικόνες ήταν “Taylor Swift AI”, γεγονός που δείχνει ότι οι άνθρωποι γνώριζαν ήδη ότι ήταν ψεύτικες. Ο σκοπός ήταν να υποβαθμιστεί η Swift με δημόσιο τρόπο και η επισήμανση των εικόνων δεν θα το άλλαζε αυτό.
Για να είμαστε δίκαιοι, οι πλατφόρμες της Meta φέρονται να αφαίρεσαν τις εικόνες πολύ πιο γρήγορα από το X, ακόμη και χωρίς τις ετικέτες. Η εταιρεία το έπραξε βάσει των πολιτικών της κατά του σεξουαλικού περιεχομένου, όχι επειδή είχαν γίνει με τεχνητή νοημοσύνη.
Ο Vidan δήλωσε ότι το επεισόδιο με τη Swift χρησίμευσε ως ένα παράδειγμα υψηλού κύρους ενός πολύ ευρύτερου προβλήματος των απομιμήσεων τεχνητής νοημοσύνης που στοχεύουν σεξουαλικά σε γυναίκες και κορίτσια. Συνήθως, τα θύματα δεν έχουν τη βάση θαυμαστών ή την επιρροή μιας Τέιλορ Σουίφτ για να πιέσουν τις πλατφόρμες να κατεβάσουν αυτές τις εικόνες. Αυτού του είδους τα ψεύτικα AI παραμένουν ένα παλιομοδίτικο πρόβλημα με τον περιορισμό του περιεχομένου, είπε η ίδια – το είδος που δεν επιδέχεται μια απλή τεχνική λύση.
Αυτό δεν σημαίνει ότι οι ετικέτες τεχνητής νοημοσύνης της Meta, ή η υδατογράφηση γενικά, είναι μια ανοησία.
Ενόψει μιας χρονιάς με πολλές εκλογικές αναμετρήσεις, τόσο στις Ηνωμένες Πολιτείες όσο και σε παγκόσμιο επίπεδο, η επισήμανση τεράστιων ποσοτήτων εικόνων που έχουν δημιουργηθεί με τεχνητή νοημοσύνη και έχουν δημιουργηθεί με εργαλεία που χρησιμοποιούνται ευρέως, αν μη τι άλλο, “θα δημιουργήσει περισσότερες τριβές στο σύστημα” με το οποίο δημιουργούνται ψεύτικες εικόνες με τεχνητή νοημοσύνη, δήλωσε ο David Broniatowski, καθηγητής μηχανικής στο Πανεπιστήμιο George Washington. “Είναι ωραίο να βλέπουμε ότι παίρνουν στα σοβαρά το πρόβλημα του ψευδούς περιεχομένου”. Αλλά το πρόβλημα αυτό είναι μεγαλύτερο από την τεχνητή νοημοσύνη, πρόσθεσε. Κατά κάποιον τρόπο, τόσο η τεχνητή νοημοσύνη όσο και τα μέσα κοινωνικής δικτύωσης πάσχουν από το ίδιο βασικό ελάττωμα – είναι συστήματα σχεδιασμένα να παράγουν και να διαδίδουν πληροφορίες χωρίς να λαμβάνουν υπόψη τους αν είναι αληθινές.
Αξίζει να σημειωθεί εδώ ότι η ανακοίνωση της Meta για την επισήμανση της τεχνητής νοημοσύνης ήρθε μια μέρα μετά την κριτική που άσκησε το Συμβούλιο Εποπτείας της εταιρείας για τις “ασυνάρτητες” και “συγκεχυμένες” πολιτικές της σχετικά με τα χειραγωγημένα μέσα ενημέρωσης, όπως ανέφερε η συνάδελφός μου Naomi Nix. Αυτή η επίπληξη προκλήθηκε από ένα τροποποιημένο βίντεο του προέδρου Μπάιντεν, το οποίο η Meta είχε πει ότι δεν παραβίαζε τους κανόνες της.
“Μιλώντας ως μηχανικός”, δήλωσε ο Broniatowski, “μέχρι να αρχίσουμε να σχεδιάζουμε συστήματα από την αρχή για να λαμβάνουμε υπόψη αν οι πληροφορίες είναι αληθινές ή ψευδείς, τότε το μόνο που κάνουμε είναι να βάζουμε ένα τσιρότο σε μια πληγή που αιμορραγεί”.