Μέσα σε μόλις τρεις μήνες, το 2021, το TikTok αφαίρεσε 80 εκατομμύρια βίντεο που με κάποιο τρόπο παραβίαζαν τους κανόνες του. Η τεχνητή νοημοσύνη σε συνδυασμό με τους συντονιστές αφαίρεσαν τα συγκεκριμένα βίντεο με αστραπιαία ταχύτητα πριν τα δει κανείς, όπως αναφέρει το BBC.
Συστήματα που αναζητούσαν «παραβατικό περιεχόμενο» αφαίρεσαν 17 εκατομμύρια από τα βίντεο που αφαιρέθηκαν αυτόματα. Το ίδιο κάνουν και άλλες εταιρείες κοινωνικής δικτύωσης αφαιρώντας καθημερινά χιλιάδες ώρες περιεχομένου.
Τώρα, κάποιοι αναρωτιούνται αν κάποιο από αυτό το περιεχόμενο που αφαιρείται, περιέχει και υλικό από εγκλήματα πολέμου στην Ουκρανία.
Βίαιο περιεχόμενο
Το TikTok ήταν ήδη εξαιρετικά δημοφιλές σε όλο τον κόσμο πριν από την απόφαση του Ρώσου προέδρου Βλαντίμιρ Πούτιν να εισβάλει στην Ουκρανία – αλλά ο πόλεμος ήταν μια στιγμή ενηλικίωσης για την πλατφόρμα. Τα βίντεο που φέρουν διάφορα ουκρανικά hashtags είχαν δισεκατομμύρια προβολές.
Ωστόσο οι Ουκρανοί που ανεβάζουν βίντεο από το έδαφος μπορεί να παράγουν κάτι περισσότερο από «likes». Μπορεί κάλλιστα να «ανεβάζουν» ένα κομμάτι σε ένα παζλ αποδεικτικών στοιχείων που μια μέρα θα χρησιμοποιηθούν για τη δίωξη εγκλημάτων πολέμου. Μπορεί επίσης να παραβιάζουν τους αυστηρούς κανόνες του TikTok και άλλων εταιρειών κοινωνικής δικτύωσης σχετικά με το βίαιο ή ακατάλληλο περιεχόμενο.
«Το TikTok είναι μια πλατφόρμα που εξυμνεί τη δημιουργικότητα και όχι το σοκ ή τη βία. Δεν επιτρέπουμε περιεχόμενο που είναι σοκαριστικό, βίαιο, σαδιστικό ή φρικιαστικό», λένε οι κανόνες του TikTok.
Τεράστιο ζήτημα
Σύμφωνα με το δημοσίευμα του BBC, οι ερευνητές δεν γνωρίζουν τι ποσοστό περιεχομένου με θέμα τον πόλεμο στην Ουκρανία που δημιουργείται από χρήστες, αφαιρεί το Tiktok και άλλες εταιρείες κοινωνικής δικτύωσης, όπως η Meta, το Twitter και το YouTube.
«Η TikTok δεν είναι τόσο διαφανής όσο κάποιες από τις άλλες εταιρείες και καμία από αυτές δεν είναι πολύ διαφανής», δήλωσε στο BBC, ο Σαμ Γκρέγκορι, διευθυντής του προγράμματος Witness, το οποίο βοηθά τους ανθρώπους να χρησιμοποιούν βίντεο και τεχνολογία για την προστασία και την υπεράσπιση των ανθρωπίνων δικαιωμάτων.
«Δεν ξέρετε τι δεν ήταν ορατό και τι αφαιρέθηκε επειδή ήταν βίαιο, αλλά δυνητικά αποδεικτικό στοιχείο. Υπάρχει ένα τεράστιο ζήτημα εδώ».
Αυτή δεν είναι η πρώτη φορά που μεγάλες εταιρείες κοινωνικής δικτύωσης αντιμετωπίζουν στοιχεία για πιθανά εγκλήματα πολέμου.
Ο πόλεμος στη Συρία έφερε παρόμοια προβλήματα. Το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων ζητούσε για χρόνια ένα κεντρικό σύστημα μεταφορτώσεων από τις ζώνες συγκρούσεων.
«Προς το παρόν, δεν υπάρχει», είπε η ανώτερη ερευνήτρια συγκρούσεων Μπέλκις Γουίλ.
Η Γουίλ αναφέρθηκε στην περίπλοκη διαδικασία που πρέπει να ακολουθήσουν οι εισαγγελείς για να αποκτήσουν αποδεικτικά στοιχεία που έχουν αφαιρεθεί από τα μέσα κοινωνικής δικτύωσης.
«Οι αρχές μπορούν να γράψουν στις εταιρείες κοινωνικής δικτύωσης ή να ζητήσουν κλήτευση ή δικαστική εντολή. Όμως με τον τρόπο που λειτουργεί η διαδικασία αυτή τη στιγμή, κανείς δεν γνωρίζει πού βρίσκεται όλο αυτό το περιεχόμενο», εξήγησε η Γουίλ.
Αυτό αποτελεί πραγματικό πρόβλημα για τους ερευνητές. Ακόμη και πριν από την Ουκρανία, όσοι προσπαθούν να καταγράψουν τις φρικαλεότητες έχουν τονίσει πώς ο αυξημένος έλεγχος στις πλατφόρμες είχε αρνητικές επιπτώσεις στη συλλογή αποδεικτικών στοιχείων.
«Αυτός ο ρυθμός ανίχνευσης σημαίνει ότι οι φορείς των ανθρωπίνων δικαιωμάτων χάνουν όλο και περισσότερο τον αγώνα για τον εντοπισμό και τη διατήρηση των πληροφοριών», αναφέρει έκθεση σχετικά με τα ψηφιακά αποδεικτικά στοιχεία των θηριωδιών, του Κέντρου Ανθρωπίνων Δικαιωμάτων, στη Νομική Σχολή του Μπέρκλεϊ.
Οι συγγραφείς της έκθεσης έκαναν έκκληση για «ψηφιακές θυρίδες» – μέρη όπου το περιεχόμενο μπορεί να αποθηκευτεί και να εξεταστεί όχι μόνο από εταιρείες μέσων κοινωνικής δικτύωσης αλλά και από μη κυβερνητικές οργανώσεις (ΜΚΟ) και νομικούς εμπειρογνώμονες.
Ωστόσο, δεν έχουν όλες οι πλατφόρμες κοινωνικής δικτύωσης τις ίδιες πολιτικές όσον αφορά το βίαιο περιεχόμενο. Το Telegram έπαιξε εξαιρετικά σημαντικό ρόλο για την ανταλλαγή βίντεο από το έδαφος στην Ουκρανία. Τυχαίνει επίσης να έχει μια εξαιρετικά ήπια πολιτική μετριασμού περιεχομένου. Για παράδειγμα, βίντεο που θα αφαιρούνταν στο Twitter ή το Facebook παραμένουν στο Telegram.
Και αυτός δεν είναι ο μόνος λόγος για τον οποίο η πλατφόρμα βοηθά τους ερευνητές.
«Θα έλεγα ότι μερικές από τις πιο πολύτιμες φωτογραφίες και βίντεο που έχουμε λάβει ως οργάνωση είναι από το Telegram», σημείωσε η Γουίλ.
Υπάρχει και ένα άλλο βασικό πλεονέκτημα. Οι εταιρείες μέσων κοινωνικής δικτύωσης, όπως το Facebook και το Twitter, αφαιρούν αυτόματα τα μεταδεδομένα μιας φωτογραφίας ή ενός βίντεο. Πρόκειται για ένα είδος ψηφιακής ταυτότητας που αποκαλύπτει πού και πότε τραβήχτηκε το περιεχόμενο και είναι ζωτικής σημασίας για τους ερευνητές. Η προστασία των μεταδεδομένων, από τη στιγμή που καταγράφηκε μια ενέργεια μέχρι τη στιγμή που παρουσιάζεται στο δικαστήριο, αναφέρεται μερικές φορές ως «αλυσίδα επιτήρησης».
Η Γουέντι Μπετς, διευθύντρια του Eye Witness, ενός προγράμματος του Διεθνούς Δικηγορικού Συλλόγου που επικεντρώνεται στη συλλογή επαληθεύσιμων φρικαλεοτήτων για τα ανθρώπινα δικαιώματα, ενθαρρύνει τους ανθρώπους να κινηματογραφούν πιθανά εγκλήματα πολέμου στην εφαρμογή του, Eye Witness to Atrocities, για να διατηρήσουν τις πληροφορίες με τον καλύτερο δυνατό τρόπο για χρήση στο δικαστήριο.
«Καθώς το υλικό περνάει από τον φωτογράφο σε έναν ερευνητή σε έναν δικηγόρο, αν λείπει οποιοσδήποτε κρίκος αυτής της αλυσίδας, το υλικό αυτό θα θεωρηθεί πιο ύποπτο, επειδή θα μπορούσαν να έχουν γίνει αλλαγές κατά τη διάρκεια αυτού του κενού», εξήγησε στο BBC.
Αλλά όλες αυτές οι λύσεις μοιάζουν αποσπασματικές και μη ικανοποιητικές.
Διαφορετικές απαντήσεις
Σε ορισμένες περιπτώσεις, δεν είναι σαφές ότι οι εταιρείες κοινωνικής δικτύωσης αποθηκεύουν ή τεκμηριώνουν αυτά τα βίντεο. Το BBC απεύθυνε ερώτημα στις εταιρείες TikTok, Google, Meta και Twitter σχετικά με τις πολιτικές τους σε αυτόν τον τομέα.
Το TikTok διαβίβασε τις πολιτικές του σχετικά με την προστασία των χρηστών του κατά τη διάρκεια του πολέμου στην Ουκρανία, αλλά δεν απάντησε σε καμία από τις ερωτήσεις που του τέθηκαν. Το Twitter και η Google δεν απάντησαν στο αίτημα του BBC για σχολιασμό. Μόνο η Meta απάντησε.
«Αφαιρούμε αυτό το είδος περιεχομένου μόνο όταν δοξάζει τη βία ή εξυμνεί τον πόνο των άλλων ή όταν είναι εξαιρετικά βίαιο – για παράδειγμα, βίντεο με εικόνες διαμελισμού», δήλωσε εκπρόσωπος της Meta.
«Σχετικά με τον πόλεμο στην Ουκρανία, διερευνούμε τρόπους για να διατηρήσουμε αυτό το περιεχόμενο όταν το αφαιρούμε», πρόσθεσε.
Οι πολύ διαφορετικές απαντήσεις από αυτές τις τέσσερις τεράστιες εταιρείες τεχνολογίας λένε τη δική τους ιστορία. Με άλλα λόγια, δεν υπάρχει κανένα κοινό σύστημα ή πολιτική που να ακολουθούν οι εταιρείες. Και μέχρι να υπάρξει, κρίσιμα στοιχεία θα μπορούσαν να χαθούν και να ξεχαστούν.