Μειωμένες τεχνολογικές πλατφόρμες, παραπληροφόρηση με τεχνητή νοημοσύνη και περισσότερες από 50 χώρες που ψηφίζουν το 2024. Τι μπορεί να πάει στραβά;
Πριν τις τελευταίες εθνικές εκλογές της Ινδίας το 2019, οι τεχνικές εσωτερικές ομάδες του Twitter αντιμετώπισαν μια φήμη που διαδόθηκε στην πλατφόρμα ότι το ανεξίτηλο μελάνι με το οποίο η χώρα σημαδεύει τα νύχια των ψηφοφόρων περιείχε αίμα χοίρου.
“Αυτή ήταν μια τακτική παραπληροφόρησης με κύριο στόχο να στερήσει από τους μουσουλμάνους τα εκλογικά τους δικαιώματα, αποτρέποντάς τους από το να ψηφίσουν. Δεν ήταν αλήθεια”, ανέφερε σε συνέντευξή του ο Yoel Roth, ο τότε επικεφαλής της πλατφόρμας κοινωνικής δικτύωσης για την ακεραιότητα του ιστότοπου, υπεύθυνος για τις εκλογές. “Έτσι, το Twitter προσάρμοσε τις πολιτικές του διαμηνύοντας ότι η προώθηση αυτού του τύπου ψευδούς αφηγήματος αποτροπής των ψηφοφόρων αποτελεί παραβίαση των κανόνων του ιστότοπου. Οι αναρτήσεις θα αφαιρούνταν και οι χρήστες θα τιμωρούνταν”. Ο Roth ανησυχεί, ότι αν αυτό συνέβαινε σήμερα, η αντίδραση της πλατφόρμας θα ήταν εντελώς διαφορετική -ή ακόμα χειρότερα, ανύπαρκτη.
Το “Twitter”, για παράδειγμα, δεν υπάρχει πλέον πραγματικά. Η πλατφόρμα μετονομάστηκε σε X, μετά την εξαγορά της από το δισεκατομμυριούχο Elon Musk έναντι 44 δισεκατομμυρίων δολαρίων το 2022. Ο Musk απέλυσε αμέσως τους μισούς υπαλλήλους της εταιρείας, συμπεριλαμβανομένου του μεγαλύτερου μέρους των ομάδων αξιοπιστίας και ασφάλειας, των οποίων ηγείτο ο Roth – ομάδες που κρατούσαν παραπλανητικό και επιβλαβές περιεχόμενο μακριά από την πλατφόρμα. Ο ίδιος ο Roth παραιτήθηκε από το τότε Twitter το Νοέμβριο του 2022, λιγότερο από ένα μήνα αφότου ανέλαβε ο Musk. Η πολιτική του Musk για απεριόριστη ελευθερία του λόγου, μαζί με την αναθεώρηση του συστήματος επαλήθευσης που προηγουμένως βοηθούσε τους χρήστες να αναγνωρίζουν έγκυρους λογαριασμούς, οδήγησε σε μια πλημμύρα παραπληροφόρησης και ρητορικής μίσους στην πλατφόρμα. (Ο ίδιος ο Roth έχει αντιμετωπίσει πολλά από αυτά).
Τα αιτήματα προς την ομάδα Τύπου του X σχετικά με το πώς προετοιμάζεται η πλατφόρμα για τις εκλογές του 2024 λάμβαναν μια αυτοματοποιημένη απάντηση: “Απασχολημένος τώρα, παρακαλώ επιστρέψτε αργότερα” – μια μικρή βελτίωση από την αρχική αλλαγή της εποχής Musk, όπου η αυτόματη απάντηση ήταν ένα poop emoji. Το X δεν είναι η μόνη μεγάλη πλατφόρμα κοινωνικής δικτύωσης με λιγότερους διαχειριστές περιεχομένου. Η Meta, στην οποία ανήκουν το Facebook, το Instagram και το WhatsApp, έχει απολύσει περισσότερους από 20.000 υπαλλήλους από το Νοέμβριο του 2022 – αρκετοί από τους οποίους εργάζονταν σε θέματα αξιοπιστίας και ασφάλειας – ενώ πολλοί υπάλληλοι του YouTube που εργάζονταν στην πολιτική παραπληροφόρησης επηρεάστηκαν από τις απολύσεις στη μητρική εταιρεία Google.
Δύσκολα θα μπορούσε να υπάρξει χειρότερη στιγμή για υπάρξουν περικοπές στην καταπολέμηση του επιβλαβούς περιεχομένου στο διαδίκτυο. Σε περισσότερες από πενήντα χώρες, μεταξύ των οποίων οι τρεις μεγαλύτερες δημοκρατίες του κόσμου και η Ταϊβάν, ένα ολοένα και πιο ασταθές γεωπολιτικό σημείο, αναμένεται να διεξαχθούν εθνικές εκλογές το 2024. Επτά από τις δέκα πολυπληθέστερες χώρες του κόσμου – το Μπαγκλαντές, η Ινδία, η Ινδονησία, το Μεξικό, το Πακιστάν, η Ρωσία και οι Ηνωμένες Πολιτείες – θα στείλουν στις κάλπες το ένα τρίτο του παγκόσμιου πληθυσμού. Οι εκλογές, με τη συναισθηματικά φορτισμένη και συχνά φυλετική δυναμική τους, είναι το πεδίο όπου τα λάθη στην παραπληροφόρηση γίνονται πραγματικότητα. Αν η παραπληροφόρηση στα μέσα κοινωνικής δικτύωσης είναι ισοδύναμη με το να φωνάζεις “φωτιά” σε ένα γεμάτο θέατρο, η παραπληροφόρηση στις εκλογές είναι σαν να το κάνεις όταν παίζεται μια ταινία τρόμου και όλοι είναι ήδη σε έξαψη.
Η Katie Harbath προτιμά μια διαφορετική αναλογία, η οποία παρουσιάζει πόσο ομιχλώδη και ακανθώδη είναι τα ζητήματα και η απόλυτη αβεβαιότητα που τα περιβάλλει. “Η μεταφορά που χρησιμοποιώ συνεχώς είναι ένα καλειδοσκόπιο, επειδή υπάρχουν τόσες πολλές διαφορετικές πτυχές σε αυτό, αλλά ανάλογα με το πώς το γυρίζεις αλλάζει η εικόνα του μοτίβου”, δήλωσε σε συνέντευξή της τον Οκτώβριο. “Και έτσι αισθάνομαι για τη ζωή μετά το 2024 [..] Δεν ξέρω σε ποια εικόνα του μοτίβου του καλειδοσκόπιου θα προσγειωθεί”. Η Harbath έχει γίνει κάτι σαν εκλογικός ψιθυριστής της τεχνολογικής βιομηχανίας, αφού πέρασε μια δεκαετία στο Facebook από το 2011 οικοδομώντας από το μηδέν τις προσπάθειες της εταιρείας για την ακεραιότητα των εκλογών. Έφυγε το 2021 και ίδρυσε την Anchor Change, μια εταιρεία συμβούλων δημόσιας πολιτικής που βοηθά άλλες πλατφόρμες να αντιμετωπίσουν την παραπληροφόρηση και να προετοιμαστούν ιδίως για τις εκλογές.
Σύμφωνα με την Harbath, αν βρισκόταν στην παλιά της δουλειά, η ομάδα της θα είχε ολοκληρώσει τις εκτιμήσεις κινδύνου των παγκόσμιων εκλογών μέχρι τα τέλη του 2022 ή τις αρχές του 2023 και στη συνέχεια θα προσάρμοζε τα προϊόντα της Meta στα δεδομένα αυτά, δημιουργώντας συγχρόνως εκλογικά “δωμάτια πολέμου” όπου ήταν απαραίτητο. “Αυτή τη στιγμή, θα αρχίζαμε να περνάμε σε κατάσταση εκτέλεσης”. Προειδοποιεί να μην αντιμετωπίζονται οι πόροι που οι εταιρείες επενδύουν στην ακεραιότητα των εκλογών ως ένα παιχνίδι αριθμών: “Μόλις δημιουργήσετε κάποια από αυτά τα εργαλεία, η συντήρησή τους δεν απαιτεί τόσο πολλούς ανθρώπους”, αλλά αναγνωρίζει ότι η κατανομή των πόρων αποκαλύπτει τις προτεραιότητες της ηγεσίας μιας εταιρείας.
Οι εταιρείες επιμένουν ότι παραμένουν προσηλωμένες στο αδιάβλητο των εκλογών. Το YouTube έχει “επενδύσει σε μεγάλο βαθμό στις πολιτικές και τα συστήματα που μας βοηθούν να υποστηρίξουμε με επιτυχία τις εκλογές σε όλο τον κόσμο”, ανέφερε σε δήλωσή της η εκπρόσωπος Ivy Choi. Το TikTok δήλωσε ότι διαθέτει συνολικά 40.000 επαγγελματίες ασφαλείας και συνεργάζεται με 16 οργανισμούς ελέγχου γεγονότων σε 50 παγκόσμιες γλώσσες. Η Meta αρνήθηκε να προβεί σε οποιοδήποτε σχόλιο για το θέμα, αλλά εκπρόσωπος της εταιρείας παρέπεμψε το Foreign Policy σε μια πρόσφατη ανάρτηση στο blog του Nick Clegg, πρώην αναπληρωτή πρωθυπουργού του Ηνωμένου Βασιλείου, ο οποίος τώρα είναι επικεφαλής των παγκόσμιων υποθέσεων της Meta. “Έχουμε περίπου 40.000 άτομα που εργάζονται στον τομέα της ασφάλειας, με περισσότερα από 20 δισεκατομμύρια δολάρια να έχουν επενδυθεί σε ομάδες και τεχνολογία σε αυτόν τον τομέα από το 2016”, έγραψε ο Clegg στην ανάρτηση.
Υπάρχουν όμως και άλλα ανησυχητικά σημάδια. Το YouTube ανακοίνωσε τον περασμένο Ιούνιο ότι θα σταματήσει να κατεβάζει περιεχόμενο που διαδίδει ψευδείς ισχυρισμούς σχετικά με τις αμερικανικές εκλογές του 2020 ή προηγούμενες εκλογές, και η Meta προχώρησε αθόρυβα σε μια παρόμοια αλλαγή πολιτικής στους κανόνες πολιτικής διαφήμισης το 2022. Και όπως έχουν δείξει τα προηγούμενα χρόνια, οι πλατφόρμες τείνουν να έχουν ακόμη λιγότερη κάλυψη εκτός της Δύσης, με μεγάλα τυφλά σημεία στις τοπικές γλώσσες και το πλαίσιο που καθιστούν την παραπληροφόρηση και τη ρητορική μίσους όχι μόνο πιο διαδεδομένη αλλά και πιο επικίνδυνη.
“Οι άνθρωποι που ασχολούνται με τα ψηφιακά δικαιώματα σε αυτή την περιοχή το θέτουν εδώ και πολύ καιρό”, δήλωσε η Nighat Dad, μια Πακιστανή υπέρμαχος των ψηφιακών δικαιωμάτων, η οποία είναι επίσης μέλος του Συμβουλίου Εποπτείας της Meta – ενός ανεξάρτητου οργάνου προσφυγών που δημιουργήθηκε από την εταιρεία για να αποφαίνεται σχετικά με τις αποφάσεις της για τη συγκράτηση του περιεχομένου της. “Με τον τρόπο που αυτές οι εταιρείες δίνουν σημασία στις εκλογές στις δυτικές δημοκρατίες, εμείς δεν λαμβάνουμε τέτοια προσοχή”.
“Δεν είναι ότι δεν κάνουν τίποτα. [..] Νομίζω ότι δεν κάνουν αρκετά”, δήλωσε η Dad. Και δεν είναι καθόλου μόνη της σε αυτό το συναίσθημα: Παρόμοια ζοφερή πρόγνωση κάνει και ο Roth. “Νομίζω ότι το τοπίο των απειλών που αντιμετωπίζουν οι πλατφόρμες κοινωνικής δικτύωσης και οι ψηφοφόροι που τις χρησιμοποιούν δεν έχει αλλάξει τόσο πολύ, αλλά το επίπεδο προετοιμασίας στις μεγάλες πλατφόρμες κοινωνικής δικτύωσης έχει αλλάξει”, είπε. “Ανησυχώ πολύ ότι οι μεγάλες πλατφόρμες είναι λιγότερο προετοιμασμένες για τις απειλές ασφάλειας των εκλογών το 2024 απ’ ό,τι ήταν για οποιονδήποτε μεγάλο κύκλο παγκόσμιων εκλογών από το 2016 και μετά”.
Και όλα αυτά χωρίς καν να αναφέρουμε την τεχνητή νοημοσύνη.
Η τεχνολογία αυτή υπάρχει σε διάφορες μορφές εδώ και χρόνια, αλλά καθοριστική στιγμή ήταν ο Νοέμβριος του 2022, όταν η OpenAI με έδρα την Καλιφόρνια εγκαινίασε το ChatGPT. Το chatbot και οι επόμενες αναβαθμίσεις του, ικανές να παράγουν παραγράφους κειμένου κατόπιν εντολής μέσα σε δευτερόλεπτα, έδωσαν το έναυσμα για έναν κύκλο τεχνολογικής διαφημιστικής εκστρατείας και τον ανταγωνισμό μεταξύ των εταιρειών για την υπεροχή σε παγκόσμιο επίπεδο. Η Meta, η Google και η Microsoft (η οποία έχει επίσης επενδύσει δισεκατομμύρια δολάρια στην OpenAI) παρουσίασαν τα δικά τους chatbots, όπως και νεότερες εταιρείες AI όπως η Anthropic, η Inflection και η Cohere και οι κινεζικές εταιρείες μεγάλης τεχνολογίας Baidu, Tencent και Alibaba.
Δεν είναι όμως μόνο το κείμενο. Η OpenAI κατέχει επίσης το DALL-E, μία από τις πολλές γεννήτριες εικόνων τεχνητής νοημοσύνης που κυκλοφορούν στην αγορά, και η προσαρμογή του ήχου και του βίντεο στις ανάγκες του χρήστη έχει επίσης γίνει απείρως ευκολότερη από τα λεγόμενα εργαλεία γεννητικής τεχνητής νοημοσύνης. Αυτά τα εργαλεία -που ονομάζονται έτσι λόγω της ικανότητάς τους να παράγουν μια μεγάλη ποικιλία διαδικτυακού περιεχομένου σε διάφορα μέσα απαντώντας στις απαιτήσεις των χρηστών- δυστυχώς έχουν τη δυνατότητα να μεγεθύνουν την παραπληροφόρηση των κοινωνικών μέσων ενημέρωσης με τρόπο που δεν έχει παρατηρηθεί στο παρελθόν.
“Απλώς καθιστά πολύ πιο εύκολη τη δημιουργία και τη διάδοση πολύ ρεαλιστικών deepfakes και πολύ αληθοφανών deepfakes”, δήλωσε η Rumman Chowdhury, υπεύθυνη συνεργάτρια AI στο Berkman Klein Center for Internet & Society του Πανεπιστημίου του Χάρβαρντ και συνιδρύτρια της μη κερδοσκοπικής οργάνωσης για την ασφάλεια της AI Humane Intelligence. Η Chowdhury έχει μια πιο ενημερωμένη αντίληψη από τους περισσότερους σχετικά με το σημείο τομής της τεχνητής νοημοσύνης, της παραπληροφόρησης και των μέσων κοινωνικής δικτύωσης, έχοντας προηγουμένως ηγηθεί της ομάδας ηθικής τεχνητής νοημοσύνης του Twitter, η οποία υπήρξε ένα ακόμη θύμα της αποψίλωσης του ανθρώπινου δυναμικού ασφαλείας της εταιρείας από τον Musk. Μετά την αναγκαστική αποχώρησή της το Νοέμβριο του 2022, έχει περάσει τον χρόνο της οργανώνοντας ασκήσεις “κόκκινης ομάδας”, συμπεριλαμβανομένης μιας που υποστηρίζεται από τον Λευκό Οίκο, στις οποίες οι συμμετέχοντες προσπαθούν να διευρύνουν τα όρια των μοντέλων τεχνητής νοημοσύνης για να δουν τι βλάβες μπορούν να προκαλέσουν σε ελεγχόμενο περιβάλλον.
Οι συνέπειες της διάδοσης μπορεί να είναι ιδιαίτερα ανησυχητικές, δήλωσε η Chowdhury, αναφέροντας την πρόσφατη έρευνά της με την UNESCO σχετικά με τη στηριζόμενη στην ΑΙ βία με βάση το φύλο και μια άσκηση “κόκκινης ομάδας” με κλιματολόγους. Τα παραγωγικά μοντέλα τεχνητής νοημοσύνης μπορούν να βοηθήσουν τους κακόβουλους να απευθύνουν την παραπληροφόρηση σε κοινωνικές ομάδες που είναι πιο πιθανό να έχουν απήχηση σε αυτά τα μηνύματα: μητέρες μικρών παιδιών, για παράδειγμα, ή άτομα που συμπαθούν συγκεκριμένους σκοπούς. Στη συνέχεια, μπορούν να σχεδιάσουν εκστρατείες που όχι μόνο σχεδιάζουν στρατηγικά σε ποιον θα στείλουν ποιες αναρτήσεις, αλλά και γράφουν τον κώδικα για να τους τις στείλουν. “Και πάλι, όλα αυτά είναι πολύ εφικτά”, δήλωσε η Chowdhury. “Κυριολεκτικά πήγαμε και το κάναμε για αυτές τις εκθέσεις”.
Οι εταιρείες και οι κυβερνήσεις προσπαθούν να βάλουν προστατευτικές μπάρες. Η Meta, η TikTok, η Microsoft και το YouTube έχουν επιβάλει κάποιας μορφής απαιτήσεις στους δημιουργούς και τους πολιτικούς διαφημιστές να αποκαλύπτουν πότε το περιεχόμενό τους δημιουργήθηκε με τη χρήση τεχνητής νοημοσύνης. Οι κυβερνητικές και πολυμερείς πρωτοβουλίες που θέτουν ρυθμιστικά πλαίσια για την τεχνολογία περιλαμβάνουν το πρόσφατο εκτελεστικό διάταγμα της κυβέρνησης Μπάιντεν για την τεχνητή νοημοσύνη, τη Σύνοδο Κορυφής για την ασφάλεια της τεχνητής νοημοσύνης που πραγματοποιήθηκε στο Ηνωμένο Βασίλειο τον περασμένο Νοέμβριο, ένα νέο συμβουλευτικό συμβούλιο για την τεχνητή νοημοσύνη στα Ηνωμένα Έθνη και την πράξη της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη, η οποία αναμένεται να τεθεί σε ισχύ έως το 2025.
Η Alondra Nelson, βασικός παράγοντας σε τουλάχιστον τρεις από αυτές τις πρωτοβουλίες, εξέφρασε συγκρατημένη αισιοδοξία για τις προσπάθειες. Ως πρώην διευθύντρια του Γραφείου Επιστημονικής και Τεχνολογικής Πολιτικής του Λευκού Οίκου και αναπληρώτρια βοηθός του προέδρου Τζο Μπάιντεν, η Nelson ηγήθηκε του σχεδίου της κυβέρνησης Μπάιντεν για ένα νομοσχέδιο σχετικά με την τεχνητή νοημοσύνη του 2022 και μίλησε στην Foreign Policy λίγες ημέρες μετά τη συμμετοχή της στη Σύνοδο Κορυφής του Ηνωμένου Βασιλείου και το διορισμό της στο συμβουλευτικό συμβούλιο του ΟΗΕ. “Υπήρχε ένα αίσθημα απογοήτευσης, ένα αίσθημα περιστροφής των τροχών” μεταξύ πολλών παγκόσμιων φορέων χάραξης πολιτικής σχετικά με την έλλειψη ρυθμιστικής δράσης γύρω από την τεχνητή νοημοσύνη, είπε. ” Μπορεί να μοιάζει ότι το φράγμα έσπασε, αλλά είναι ακόμη σε πρώιμο στάδιο”.
Το ερώτημα, όχι μόνο μεταξύ των φορέων χάραξης πολιτικής, αλλά και της βιομηχανίας και της κοινωνίας των πολιτών, είναι αν αυτές οι προστατευτικές μπάρες μπορούν να τεθούν σε εφαρμογή αρκετά γρήγορα. Αν όλοι μπορούν να συμφωνήσουν ακόμη και από τι πρέπει να προστατευτούν. Το OpenAI έχει πρωτοστατήσει στην προειδοποίηση για το πόσο επιζήμια θα μπορούσαν να είναι τα εργαλεία του, ενώ παράλληλα συνεχίζει να ενισχύει τις δυνατότητες των εργαλείων αυτών. Τον Ιούλιο του 2023, η εταιρεία δημιούργησε μια εταιρική σχέση που ονομάζεται Frontier Model Forum με την Anthropic, την Google και τη Microsoft με σκοπό τη συνεργασία για την ασφάλεια της τεχνητής νοημοσύνης, και ο Sam Altman -ο επί μακρόν επικεφαλής του OpenAI- ήταν στην πρώτη γραμμή των εκκλήσεων να υπάρξουν κυβερνητικοί κανόνες στον κλάδο του.
Λίγες ημέρες αφότου φιλοξένησε το πρώτο συνέδριο προγραμματιστών της OpenAI, στο οποίο η εταιρεία παρουσίασε το νέο, αναβαθμισμένο chatbot της, καθώς και τη δυνατότητα δημιουργίας προσαρμοσμένων GPT για συγκεκριμένους σκοπούς, ο Altman απηύθυνε μια ιδιαίτερα δυσοίωνη προειδοποίηση σχετικά με την τεχνητή νοημοσύνη και τις εκλογές στη Σύνοδο Κορυφής των CEO της Οικονομικής Συνεργασίας Ασίας-Ειρηνικού (APEC) στο Σαν Φρανσίσκο. “Το επικίνδυνο πράγμα εκεί δεν είναι αυτό που ήδη καταλαβαίνουμε [..] αλλά είναι όλα τα νέα πράγματα – τα γνωστά άγνωστα, τα τελείως άγνωστα”, δήλωσε κατά τη διάρκεια ενός πάνελ στις 16 Νοεμβρίου. “Υπάρχουν ένα σωρό άλλα πράγματα που δεν ξέρουμε, επειδή δεν τα έχουμε δει, ξέρετε, το γενεσιουργό βίντεο ή ο,τιδήποτε άλλο και αυτό θα έρθει γρήγορα και με μανία κατά τη διάρκεια μιας χρονιάς εκλογών”.
Αναγνωρίζοντας ίσως την πιθανή κατάχρηση, το OpenAI διόρισε τον Σεπτέμβριο την Becky Waite, πρώην στέλεχος της Meta, ως επικεφαλής των παγκόσμιων εκλογών. Ωστόσο, η εντολή της Waite και η εκλογική στρατηγική του OpenAI παραμένουν ασαφείς. (Η Waite δεν απάντησε σε πολλαπλά αιτήματα για σχόλια, και το OpenAI αρνήθηκε να διαθέσει την ίδια ή οποιοδήποτε άλλο στέλεχος για την παρούσα ιστορία).
Λιγότερο από μία ημέρα μετά την προεκλογική προειδοποίηση του Altman επί σκηνής, το OpenAI βυθίστηκε στο είδος του χάους που όλοι ανησυχούν ότι τα προϊόντα του θα εξαπολύσουν στη δημοκρατία. Στις 17 Νοεμβρίου, το διοικητικό συμβούλιο της εταιρείας ανακοίνωσε ότι ο Altman απολύεται, με άμεση ισχύ, επειδή “δεν ήταν σταθερά ειλικρινής στις επικοινωνίες του με το διοικητικό συμβούλιο”. Ο πρόεδρος της OpenAI, Greg Brockman, παραιτήθηκε σε ένδειξη διαμαρτυρίας λίγο αργότερα και η απομάκρυνση του διδύμου φέρεται να προκάλεσε μεγάλης κλίμακας ανταρσία μεταξύ των εργαζομένων της εταιρείας. Ο Altman και ο Brockman επέστρεψαν στην OpenAI με ένα νέο διοικητικό συμβούλιο πέντε ημέρες αργότερα και δύο προσωρινούς διευθύνοντες συμβούλους, κοιμίζοντας -για την ώρα- έναν από τους πιο χαοτικούς κύκλους ειδήσεων της Silicon Valley εδώ και χρόνια.
Η αναταραχή της OpenAI ήταν ίσως μια ζοφερή υπενθύμιση μιας άλλης δυσάρεστης αλήθειας: Όσο επιδραστική και αν είναι η τεχνολογία της τεχνητής νοημοσύνης, καλώς ή κακώς, εξαρτάται σε μεγάλο βαθμό από τα καπρίτσια των διοικητικών συμβουλίων των εταιρειών ή των εκκεντρικών δισεκατομμυριούχων. “Υπάρχει ασυμμετρία πληροφοριών γύρω από τα μοντέλα ΑΙ, τα δεδομένα ΑΙ που κατέχουν οι εταιρείες και έτσι, ακόμη και αν οι κυβερνήσεις δεν θέλουν να έχουν εταιρική σχέση με τις εταιρείες, πρέπει να έχουν τουλάχιστον με τους μεγάλους παίκτες της βιομηχανίας” δήλωσε ο Νέλσον. “Από την άλλη πλευρά, η σύμπραξη πρέπει να είναι κάπως ανταγωνιστική, ιδίως τη στιγμή που τα προϊόντα κυκλοφορούν στο κοινό χωρίς το είδος της υποχρέωσης φροντίδας που νομίζω ότι πολλοί θα συμφωνούσαν ότι πρέπει να συμβεί”.
Ενώ η κυβερνητική δράση για την τεχνητή νοημοσύνη φαίνεται να κινείται κάπως ταχύτερα από ό,τι με προηγούμενες τεχνολογίες, οι δισεκατομμυριούχοι που διευθύνουν την παράσταση εξακολουθούν να έχουν δυσανάλογα μεγάλη δύναμη.
“Σίγουρα έχουμε δει κυβερνήσεις να προσπαθούν να καταπνίξουν τους διαφωνούντες χρησιμοποιώντας νόμους που υποτίθεται ότι μας προστατεύουν από τη διαδικτυακή ριζοσπαστικοποίηση, οπότε το ερώτημα που τίθεται στη συνέχεια είναι, ποιος είναι ο κριτής της αλήθειας; Ποιοι είναι οι άνθρωποι που αποφασίζουν τι είναι και τι δεν είναι αλήθεια;” δήλωσε η Chowdhury. “Και αυτή τη στιγμή, είναι οι άνθρωποι που διοικούν εταιρείες κοινωνικής δικτύωσης”.
Για όσους επιθυμούν να γίνουν συνήγοροι του διαβόλου απέναντι στους καταστροφολόγους της τεχνητής νοημοσύνης, υπάρχουν τρία επιχειρήματα κάπως πειστικά.
Το πρώτο είναι ο ρόλος της τεχνητής νοημοσύνης στη δυνητική λύση. Οι εταιρείες μέσων κοινωνικής δικτύωσης έχουν στηριχθεί περισσότερο στα αυτοματοποιημένα εργαλεία ανίχνευσης ως σύστημα έγκαιρης προειδοποίησης για την παραπληροφόρηση και τη ρητορική μίσους, φιλτράροντας τον όγκο του περιεχομένου που πρέπει να εξετάσουν οι ανθρώπινοι κριτές. Σύμφωνα με την έκθεση διαφάνειας του YouTube για την περίοδο Απριλίου-Ιουνίου 2023, τα εργαλεία αυτά εντόπισαν το 93% των βίντεο που τελικά κατέβηκαν για παραβίαση των πολιτικών της πλατφόρμας. Για το TikTok, ο αριθμός αυτός ήταν περίπου 62%. Η Meta έχει εντείνει τη χρήση εργαλείων τεχνητής νοημοσύνης για τη συγκράτηση περιεχομένου από το 2020 και αναφέρει επίσης ότι η τεχνολογία της ανιχνεύει πάνω από το 90% του περιεχομένου που παραβιάζει τους όρους της Meta πριν οι χρήστες το αναφέρουν. “Η τεχνητή νοημοσύνη είναι τόσο το σπαθί όσο και η ασπίδα”, δήλωσε ο Chris Cox, επικεφαλής προϊόντος της Meta, κατά τη διάρκεια του πάνελ του APEC.
Αλλά υπάρχει επίσης σημαντικός κίνδυνος από την υπερβολική στήριξη στην τεχνητή νοημοσύνη, είτε πρόκειται για την κατά λάθος αφαίρεση νόμιμου λόγου είτε λόγω μη κατανόησης σημαντικών εκφράσεων, ιδιωματισμών, συμφραζομένων. “Νομίζω ότι πολλές από τις πλατφόρμες πιστεύουν ότι ο μετριασμός του περιεχομένου θα πάει εκεί, ή τουλάχιστον αυτή είναι η ελπίδα τους – ότι θα είναι η τεχνητή νοημοσύνη που θα πολεμά την τεχνητή νοημοσύνη”, δήλωσε ο Harbath, πρώην επικεφαλής εκλογών του Facebook. “Κανένα από αυτά τα πράγματα σε καμία από τις δύο πλευρές της μάχης για την τεχνητή νοημοσύνη δεν έχει φτάσει ακόμα στο επίπεδο της πολυπλοκότητας όπου απλά τα αφήνεις να το παλέψουν”.
Το δεύτερο επιχείρημα είναι ότι η παραπληροφόρηση που παράγεται από την ΑΙ μπορεί να μην καταλήξει με τον τρόπο που οι κακοί παράγοντες μπορεί να το επιδιώκουν. Αυτό οφείλεται εν μέρει στο γεγονός ότι οι επανειλημμένες προειδοποιήσεις σχετικά με τις παραποιημένες εικόνες και τα ψεύτικα βίντεο έχουν κάνει τους χρήστες των μέσων κοινωνικής δικτύωσης ιδιαίτερα επιφυλακτικούς και άγρυπνους (αυτό που ο Altman ανέφερε ως “κοινωνικά αντισώματα”) και επίσης επειδή ένα μεγάλο μέρος του περιεχομένου δεν είναι ακόμη τόσο πειστικό. Οι εικόνες που δημιουργούνται με τεχνητή νοημοσύνη εμφανίζονται συχνά με επιπλέον δάχτυλα ή άκρα, και τα deepfake βίντεο έχουν ακόμα κάποιες σημαντικές μαρτυρίες. “Δεν έχουμε δει ακόμη το σενάριο της καταστροφής που όλοι φαντάζονται και σύμφωνα με το οποίο: Κυκλοφορεί ένα βίντεο το οποίο κανείς δεν μπορεί να καταλάβει αν είναι αληθινό ή ψεύτικο και στη συνέχεια επηρεάζει τις εκλογές. Οι άνθρωποι είναι σε θέση να απαντήσουν και να διαψεύσουν αυτού του είδους το περιεχόμενο”, δήλωσε ο Roth, πρώην επικεφαλής του Twitter για την εμπιστοσύνη και την ασφάλεια. Η ανησυχητική άλλη πλευρά, πρόσθεσε, είναι τα αυθεντικά βίντεο που κακώς ισχυρίζονται ότι είναι deepfakes και έτσι θολώνουν περαιτέρω τα νερά. Αλλά οι πλατφόρμες πρέπει να διαθέτουν τα κατάλληλα συστήματα για την αντιμετώπιση του παραπλανητικού περιεχομένου, ανεξάρτητα από τον τρόπο παραγωγής του. “Δεν έχει σημασία αν πρόκειται για τεχνητή νοημοσύνη ή όχι – πρέπει να κάνετε αυτή τη δουλειά”, δήλωσε ο Roth.
Αυτό οδηγεί στο τρίτο επιχείρημα: ότι οι κακοί παράγοντες σε πολλές χώρες δεν χρειάζονται την τεχνητή νοημοσύνη για να είναι αποτελεσματικοί. Στην Ινδία για παράδειγμα όπου η πλατφόρμα κρυπτογραφημένων μηνυμάτων WhatsApp είναι μακράν η πιο κυρίαρχη, με περισσότερους από μισό δισεκατομμύριο χρήστες. Η παραπληροφόρηση που μοιράζεται τόσο ιδιωτικά όσο και δημόσια -πολλές φορές από πολιτικά κόμματα και τους υποστηρικτές τους- τείνει να περιλαμβάνει βιαστικά επεξεργασμένες εικόνες που έχουν αφαιρεθεί από το πλαίσιο, σύμφωνα με Ινδούς ερευνητές και ελεγκτές γεγονότων. “Μπορείς να παράγεις ένα εκατομμύριο tweets, αλλά αν το δουν μόνο δύο άνθρωποι, ποιος νοιάζεται;” δήλωσε ο Kiran Garimella, καθηγητής στο Πανεπιστήμιο Rutgers που ερευνά την διαδικτυακή παραπληροφόρηση στον παγκόσμιο Νότο. “Η πεποίθησή μου είναι ότι η διαφορά που κάνει η τεχνητή νοημοσύνη δεν θα είναι σημαντική, επειδή εξαρτάται από τους μηχανισμούς παράδοσης”. Με άλλα λόγια, αν το παιχνίδι προώθησης στο WhatsApp δεν είναι αρκετά ισχυρό, δεν θα έχει σημασία αν χρησιμοποιήσατε τεχνητή νοημοσύνη ή Photoshop.
Υπάρχουν πολλά κίνητρα για τους διακινητές της παραπληροφόρησης να αυξήσουν την παραγωγή τους. Η Ινδία έχει προσθέσει περίπου 250 εκατομμύρια νέους χρήστες του διαδικτύου από τις εκλογές του 2019, σύμφωνα με κυβερνητικά στοιχεία. Αυτό το κύμα ενεργοποιήθηκε από την έκρηξη των φθηνών smartphones και των φθηνότερων δεδομένων κινητής τηλεφωνίας, αλλά οι νέοι χρήστες του διαδικτύου ήταν και παρέμειναν ψηφιακά αναλφάβητοι. “Ένα πράγμα για το οποίο συζητάμε είναι αν οι εταιρείες τεχνολογίας θα είναι έτοιμες για τον κατακλυσμό της παραπληροφόρησης”, δήλωσε η Sumitra Badrinathan, καθηγήτρια στο Αμερικανικό Πανεπιστήμιο που μελετά την πολιτική παραπληροφόρηση στην Ινδία. “Ακόμη και αν η μορφή δεν έχει αλλάξει, το στυλ δεν έχει αλλάξει. … Απλά η καθαρή ποσότητα που υπάρχει εκεί έξω ή η εμπλοκή που έχει επειδή υπάρχουν πάρα πολλοί χρήστες στο διαδίκτυο, είναι ένα πράγμα στο οποίο πρέπει να δοθεί ιδιαίτερη προσοχή”.
Η αποκάλυψη ότι η Ρωσία παρενέβη στις αμερικανικές προεδρικές εκλογές του 2016 -ιδιαίτερα μέσω του Facebook- ήταν μια σημαντική κλήση αφύπνισης τόσο για τις πλατφόρμες των μέσων κοινωνικής δικτύωσης όσο και για την αμερικανική κοινότητα πληροφοριών, προσθέτοντας μια ανησυχητική νέα διάσταση στη συζήτηση για την παραπληροφόρηση στο διαδίκτυο και διαμορφώνοντας ένα μεγάλο μέρος του τρόπου με τον οποίο οι πλατφόρμες προσεγγίζουν την ακεραιότητα των εκλογών. Οι διαδικτυακές προσπάθειες παραπληροφόρησης της Ρωσίας συνεχίστηκαν στις εκλογές του 2020, σύμφωνα με αποχαρακτηρισμένη έκθεση των εθνικών μυστικών υπηρεσιών. Ένα άλλο βασικό συμπέρασμα της εν λόγω έκθεσης είναι η εκτίμηση “ότι η Κίνα δεν ανέπτυξε προσπάθειες παρέμβασης και εξέτασε αλλά δεν ανέπτυξε προσπάθειες επιρροής που αποσκοπούσαν στην αλλαγή του αποτελέσματος” των εκλογών.
Αυτό είναι απίθανο να παραμείνει αληθινό αυτή τη φορά -και όχι μόνο για τις αμερικανικές εκλογές. Κυβερνητικοί αξιωματούχοι, εμπειρογνώμονες σε θέματα κυβερνοασφάλειας και εταιρείες τεχνολογίας προειδοποιούν ότι η προθυμία της Κίνας να διεξάγει πληροφοριακό πόλεμο έχει μετατοπιστεί σημαντικά. Η Κίνα αναπτύσσει ολοένα και περισσότερο “προπαγάνδα, παραπληροφόρηση και λογοκρισία” σε όλο τον κόσμο και “δαπανά δισεκατομμύρια δολάρια ετησίως σε προσπάθειες χειραγώγησης της ξένης πληροφόρησης”, σύμφωνα με έκθεση του Κέντρου Παγκόσμιας Δέσμευσης του Στέιτ Ντιπάρτμεντ τον περασμένο Σεπτέμβριο. Οι αναλυτές απειλών της Microsoft κατέληξαν σε παρόμοιο συμπέρασμα: Καθώς το Κινεζικό Κομμουνιστικό Κόμμα “έχει κλιμακώσει τις δυνατότητες προπαγάνδας και παραπληροφόρησης, η Κίνα έχει γίνει πιο προκλητική επιδιώκοντας την επιρροή των εκλογών”, έγραψαν σε δική τους έκθεση του Νοεμβρίου 2023.
Και ενώ τα περισσότερα βλέμματα θα είναι στραμμένα στις αμερικανικές κάλπες τον επόμενο Νοέμβριο, μία από τις πρώτες εκλογές της χρονιάς θα μπορούσε να είναι η πιο σημαντική. Η Ταϊβάν πρόκειται να εκλέξει νέο πρόεδρο στις 13 Ιανουαρίου, σε μια απόφαση που είναι βέβαιο ότι θα έχει τεράστιες γεωπολιτικές επιπτώσεις. Οι εντάσεις γύρω από το νησί, το οποίο το Πεκίνο θεωρεί ως μια επαρχία που έχει αποσχιστεί και επομένως πρέπει να επανενωθεί με την ηπειρωτική χώρα, έχουν αυξηθεί τον τελευταίο χρόνο εν μέσω της όλο και πιο επιθετικής εξωτερικής πολιτικής της Κίνας. Η Κίνα έχει εντείνει την οικονομική και στρατιωτική πίεση στην Ταϊβάν και η πίεση αυτή είναι πιθανό να εκδηλωθεί σε απόπειρες διχασμού του εκλογικού σώματος της Ταϊβάν, όπου οι κύριες πολιτικές ιδεολογίες καθορίζονται σε μεγάλο βαθμό από την προθυμία τους να συνεργαστούν με την Κίνα.
“Ειδικά πιο κοντά στην ημέρα των εκλογών, ο όγκος της παραπληροφόρησης εκρήγνυται και διεισδύει σε κάθε γωνιά”, δήλωσε η Κεντρική Εκλογική Επιτροπή (CEC) της Ταϊβάν σε γραπτή απάντηση στο Foreign Policy σχετικά με τις μεγαλύτερες προκλήσεις που αντιμετωπίζει. “Η ενεργή αναζήτηση και ο έλεγχος της παραπληροφόρησης είναι ένα βαρύ φορτίο για την επιτροπή και τα αποσαφηνισμένα γεγονότα και οι απαντήσεις μπορεί να αποδυναμωθούν μέσα στον μεγάλο όγκο της παραπληροφόρησης”.
Η CEC αντιμετωπίζει το ρόλο της σε μεγάλο βαθμό ως μια κοινή προσπάθεια, συνεργαζόμενη με μεγάλες εταιρείες μέσων κοινωνικής δικτύωσης και με ομολόγους της σε άλλες χώρες μέσω της συμμετοχής της στην Ένωση Παγκόσμιων Εκλογικών Οργάνων. Έχει επίσης φιλοξενήσει αντιπροσωπείες των ΗΠΑ, του Ηνωμένου Βασιλείου και της Ευρώπης. Σωτήριος παράγοντας είναι ο απίστευτα τεχνολογικά καταρτισμένος πληθυσμός της Ταϊβάν, ο οποίος αντιμετωπίζει την κινεζική διαδικτυακή πίεση εδώ και χρόνια και είναι πιο ευαισθητοποιημένος από τους περισσότερους στις εκστρατείες παραπληροφόρησης. Μια πλημμύρα παραπληροφόρησης κατά τη διάρκεια των τελευταίων εκλογών του νησιού το 2020 δεν εμπόδισε την νυν πρόεδρο Τσάι Ινγκ-γουέν – της οποίας το Δημοκρατικό Προοδευτικό Κόμμα είναι πολύ λιγότερο φιλοκινεζικό από την αξιωματική αντιπολίτευση Κουομιντάνγκ – να επανεκλεγεί με συντριπτική πλειοψηφία. “Πολλές από αυτές τις εκστρατείες παραπληροφόρησης δεν λειτουργούν πραγματικά, ή τουλάχιστον δεν λειτουργούν με τον τρόπο που η Κίνα σκοπεύει να το κάνει”, δήλωσε ο Λεβ Νάχμαν, καθηγητής στο Εθνικό Πανεπιστήμιο Chengchi στην Ταϊπέι. “Υπάρχει τουλάχιστον περισσότερη αυτογνωσία από ό,τι έχει υπάρξει εδώ και πολύ καιρό, ειδικά όταν πρόκειται για κάτι που σχετίζεται με την Κίνα”.
Η Ουάσινγκτον θα παρακολουθεί στενά. “Αυτό που μπορώ να σας πω είναι ότι οι ίδιοι οι Ταϊβανέζοι είναι μερικοί από τους σημαντικότερους ειδικούς στην αντιμετώπιση της παραπληροφόρησης, έχουν μερικές από τις σημαντικότερες αναλυτικές ικανότητες και στην πραγματικότητα βρισκόμαστε σε διάλογο μαζί τους σχετικά με τον πληροφοριακό τους χώρο”, δήλωσε σε συνέντευξή της η Ελίζαμπεθ Άλεν, υφυπουργός Εξωτερικών των ΗΠΑ για τη δημόσια διπλωματία και τις δημόσιες υποθέσεις. “Είναι προς το συμφέρον μας να υπάρξουν ελεύθερες και δίκαιες εκλογές”. Η Χάρμπαθ προειδοποιεί επίσης ότι η χρήση της παραπληροφόρησης από την Κίνα ως γεωπολιτικό εργαλείο έχει δυνητικά εκτεταμένες επιπτώσεις πέραν της Ταϊβάν ή των Ηνωμένων Πολιτειών. “Θα κάνουν αρκετά για να ξεσηκώσουν τον κόσμο στις ΗΠΑ και την ΕΕ, αλλά οι πραγματικές τους προσπάθειες θα είναι στη Νότια Αμερική και την Αφρική”, είπε.
Στο ανήσυχο κλίμα που επικρατεί σήμερα στις γεωπολιτικές εξελίξεις, καθώς το σχίσμα μεταξύ δημοκρατίας και απολυταρχίας βαθαίνει, το διακύβευμα για την παραπληροφόρηση στο πλαίσιο των εκλογών δεν ήταν ποτέ υψηλότερο.
“Η διάβρωση της εμπιστοσύνης στην ακεραιότητα των εκλογών διαβρώνει την εμπιστοσύνη στην ίδια τη δημοκρατία”, δήλωσε στο Foreign Policy η Eileen Donahoe, ειδική απεσταλμένη και συντονίστρια του Στέιτ Ντιπάρτμεντ για την ψηφιακή ελευθερία. “Βρισκόμαστε εν μέσω ενός αυξανόμενου παγκόσμιου φαινομένου όπου … η εμπιστοσύνη και η σιγουριά και στα τρία πεδία -πληροφόρηση, εκλογές και δημοκρατική διακυβέρνηση- υπονομεύονται. Πρόκειται για μια εγγενώς διασυνοριακή, παγκόσμια πρόκληση”.
Πηγή : Foreign Policy