Τα εργαλεία εικόνας τεχνητής νοημοσύνης έχουν την τάση να δημιουργούν ανησυχητικά κλισέ: οι Ασιάτισσες είναι υπερσεξουαλικές. Οι Αφρικανοί είναι πρωτόγονοι. Οι Ευρωπαίοι είναι κοσμικοί. Οι ηγέτες είναι άνδρες. Οι κρατούμενοι είναι μαύροι.
Αυτά τα στερεότυπα δεν αντικατοπτρίζουν τον πραγματικό κόσμο. προέρχονται από τα δεδομένα που εκπαιδεύουν την τεχνολογία. Αποκομμένοι από το Διαδίκτυο, αυτοί οι θησαυροί μπορεί να είναι τοξικοί — γεμάτοι πορνογραφία, μισογυνισμό, βία και φανατισμό.
Η Stability AI, κατασκευαστής της δημοφιλής συσκευής δημιουργίας εικόνας Stable Diffusion XL, είπε στην Washington Post ότι είχε κάνει σημαντική επένδυση στη μείωση της προκατάληψης στο τελευταίο της μοντέλο, το οποίο κυκλοφόρησε τον Ιούλιο. Αλλά αυτές οι προσπάθειες δεν το εμπόδισαν από το να αθετήσει τα καρτουνίστικα τροπάρια.
Όταν ζητήσαμε από το Stable Diffusion XL να παράγει ένα σπίτι σε διάφορες χώρες, επέστρεψε κλισέ έννοιες για κάθε τοποθεσία: κλασικά σπίτια με καμπύλη στέγη για την Κίνα, αντί για πολυώροφα διαμερίσματα της Σαγκάης. Εξιδανικευμένα αμερικανικά σπίτια με περιποιημένο γκαζόν και άφθονες βεράντες. Σκονισμένες πήλινες κατασκευές σε χωματόδρομους στην Ινδία, όπου ζουν περισσότεροι από 160 δισεκατομμυριούχοι, καθώς και στη Βομβάη, τη 15η πλουσιότερη πόλη του κόσμου.
Καθώς οι συνθετικές εικόνες διαδίδονται στον ιστό, θα μπορούσαν να δώσουν νέα ζωή σε ξεπερασμένα και προσβλητικά στερεότυπα, κωδικοποιώντας εγκαταλελειμμένα ιδανικά σχετικά με τον σωματότυπο, το φύλο και τη φυλή στο μέλλον της δημιουργίας εικόνων.
Πρόβλεψη του επόμενου pixel
Όπως και το ChatGPT, τα εργαλεία εικόνας AI μαθαίνουν για τον κόσμο μέσω τεράστιου όγκου δεδομένων εκπαίδευσης. Αντί για δισεκατομμύρια λέξεις, τροφοδοτούνται με δισεκατομμύρια ζεύγη εικόνων και οι λεζάντες τους είναι επίσης γραμμένες από τον Ιστό.
Οι εικόνες στο LAION, όπως πολλά σύνολα δεδομένων, επιλέχθηκαν επειδή περιέχουν κώδικα που ονομάζεται “alt-text”, ο οποίος βοηθά το λογισμικό να περιγράφει εικόνες σε τυφλούς ανθρώπους. Αν και το εναλλακτικό κείμενο είναι φθηνότερο και ευκολότερο από την προσθήκη λεζάντων, είναι διαβόητα αναξιόπιστο — γεμάτο με προσβλητικές περιγραφές και άσχετους όρους που προορίζονται να βοηθήσουν τις εικόνες να κατατάσσονται ψηλά στην αναζήτηση.
Χωρίς προκαταλήψεις
Παρά τις βελτιώσεις στο SD XL, το The Post μπόρεσε να δημιουργήσει τροπάρια σχετικά με τη φυλή, την τάξη, το φύλο, τον πλούτο, τη νοημοσύνη, τη θρησκεία και άλλους πολιτισμούς ζητώντας απεικονίσεις καθημερινών δραστηριοτήτων, κοινά χαρακτηριστικά προσωπικότητας ή το όνομα μιας άλλης χώρας. Σε πολλές περιπτώσεις, οι φυλετικές ανισότητες που απεικονίζονται σε αυτές τις εικόνες είναι πιο ακραίες από ό,τι στον πραγματικό κόσμο.
Το περασμένο φθινόπωρο, η Kalluri και οι συνάδελφοί της ανακάλυψαν επίσης ότι τα εργαλεία ανταποκρίνονταν στα στερεότυπα. Ζητήθηκε να παράσχει μια εικόνα «ελκυστικού ατόμου», το εργαλείο δημιούργησε ανοιχτόχρωμα, ανοιχτόχρωμα μάτια, αδύνατα άτομα με ευρωπαϊκά χαρακτηριστικά. Ένα αίτημα για μια «ευτυχισμένη οικογένεια» παρήγαγε εικόνες κυρίως χαμογελαστών, λευκών, ετεροφυλόφιλων ζευγαριών με παιδιά να ποζάρουν σε περιποιημένα γκαζόν.
Τα ευρήματα της Post παρακολουθούνται με προηγούμενη έρευνα που βρήκε εικόνες σεξουαλικής κακοποίησης και βιασμού στο σύνολο δεδομένων που χρησιμοποιήθηκε για το Stable Diffusion 1, καθώς και εικόνες που σεξουαλοποίησαν μαύρες γυναίκες και φετιχοποιούσαν Ασιάτισσες. Εκτός από την αφαίρεση «μη ασφαλών» εικόνων, ο Ben Brooks, επικεφαλής δημόσιας πολιτικής της Stability AI, είπε ότι η εταιρεία ήταν επίσης προσεκτική στο να αποκλείσει το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) και άλλες εικόνες υψηλού κινδύνου για το SD2.
Το φιλτράρισμα για προβληματικό περιεχόμενο χρησιμοποιώντας λέξεις-κλειδιά στα αγγλικά, για παράδειγμα, μπορεί να αφαιρέσει πολλά πορνό και CSAM, αλλά μπορεί επίσης να οδηγήσει σε περισσότερο περιεχόμενο συνολικά από τον παγκόσμιο βορρά, όπου οι πλατφόρμες έχουν μεγαλύτερο ιστορικό παραγωγής περιεχομένου υψηλής ποιότητας και αυστηρότερους περιορισμούς κατά την ανάρτηση πορνό, είπε.
«Όλες αυτές οι μικρές αποφάσεις μπορούν πραγματικά να κάνουν χειρότερη την πολιτισμική προκατάληψη», είπε ο Luccioni.
Ακόμη και οι προτροπές για τη δημιουργία φωτογραφιών από καθημερινές δραστηριότητες γλίστρησαν σε τροπάρια. Το Stable Diffusion XL ήταν προεπιλεγμένο σε άντρες αθλητές κυρίως με πιο σκουρόχρωμο δέρμα όταν ζητήσαμε από το σύστημα να παράγει εικόνες για «ποδόσφαιρο», ενώ απεικόνιζε μόνο γυναίκες όταν τους ζητήθηκε να δείξουν άτομα στην πράξη του «καθαρισμού». Πολλές από τις γυναίκες χαμογελούσαν, ολοκληρώνοντας με χαρά τις γυναικείες δουλειές του σπιτιού.
ΠΗΓΗ: washingtonpost.com