Το πρόγραμμα αναπτύχθηκε από το Εθνικό Κέντρο των ΗΠΑ για τα Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC) και χρηματοδοτείται εν μέρει από τη Meta, τη μητρική εταιρεία του Facebook. Το εργαλείο απευθύνεται ειδικά σε ανηλίκους.
Εκπρόσωπος του NCMEC δήλωσε στη βρετανική εφημερίδα The Guardian ότι το πρόγραμμα απευθύνεται σε άτομα που γνωρίζουν ότι η γυμνή τους φωτογραφία κυκλοφορεί στο Διαδίκτυο ή που φοβούνται ότι η φωτογραφία τους μπορεί να καταλήξει στο Διαδίκτυο. Τέτοιες περιπτώσεις είναι οι σεξουαλικά σαφείς φωτογραφίες που αποστέλλονται σε έναν σύντροφο ή όταν κάποιος εκβιάζεται με γυμνές φωτογραφίες.
Πώς λειτουργεί;
Όσοι το επιθυμούν μπορούν να υποβάλουν ανώνυμα εικόνες από τις οποίες ο ιστότοπος δημιουργεί στη συνέχεια ένα “hash”, ένα είδος μοναδικού μαθηματικού αποτυπώματος. Η ίδια η γυμνή φωτογραφία ή ταινία δεν ανεβαίνει στη συνέχεια.
Το καινοτόμο στοιχείο του προγράμματος είναι ότι οι έφηβοι που υποψιάζονται ότι γυμνές εικόνες τους κάνουν το γύρο του κόσμου μπορούν πλέον να δημιουργήσουν προληπτικά ένα ψηφιακό αποτύπωμα. Αυτά τα “hash” εμφανίζονται στη συνέχεια σε μια μαύρη λίστα με την οποία τα μέσα κοινωνικής δικτύωσης μπορούν να συγκρίνουν τις εικόνες τους. Στη συνέχεια, όταν κάποιος προσπαθήσει να δημοσιεύσει τη φωτογραφία σε έναν ιστότοπο, η φωτογραφία μπορεί να αναγνωριστεί και να μπλοκαριστεί.
Η Αντιγόνη Ντέιβις, επικεφαλής του τμήματος ασφαλείας της Meta, δηλώνει στην Guardian ότι το εργαλείο λειτουργεί και για τις «βαθιές απομιμήσεις». Πρόκειται για τεχνητά βίντεο στα οποία οι εικόνες κάποιου παραποιούνται. Αυτά τα βίντεο μπορεί να φαίνονται αληθοφανή.
Τι δεν μπορεί να κάνει;
Ένας σημαντικός περιορισμός του Take It Down είναι ότι βασίζεται σε πλατφόρμες που έχουν συμμετάσχει εθελοντικά στην πρωτοβουλία. Μέχρι στιγμής, μόνο το Facebook, το Instagram, το OnlyFans, το Pornhub και το Yubo έχουν δηλώσει ότι θα συνεργαστούν με το εργαλείο. Σε άλλες πλατφόρμες, όπως το TikTok και το Telegram, οι εικόνες δεν μπορούν να διαγραφούν. Επιπλέον, η μαύρη λίστα δεν λειτουργεί με πλατφόρμες που στέλνουν μηνύματα κρυπτογραφημένα, όπως το WhatsApp και το iMessage.
Επίσης, εάν η εικόνα έχει υποστεί επεξεργασία, όπως με την τοποθέτηση ενός φίλτρου πάνω της ή την προσθήκη ενός emoji, η φωτογραφία δεν μπορεί πλέον να αναγνωριστεί από το hash.
Δεν είναι σαφές πώς θα αποτραπεί ο κόσμος από το να βάζει στη μαύρη λίστα νόμιμες εικόνες που στη συνέχεια δεν μπορούν να μοιραστούν. Εξάλλου, η ίδια η εικόνα ή το βίντεο δεν αποστέλλεται, οπότε το NCMEC δεν μπορεί να ελέγξει ποιο υλικό θα μπει στη μαύρη λίστα.
Τραυματική εμπειρία
Σύμφωνα με την NCMEC, το πρόγραμμα αποσκοπεί πρωτίστως στην αντιμετώπιση της διαδικτυακής κακοποίησης και εκμετάλλευσης παιδιών. «Όταν οι δικές σας γυμνές εικόνες βρίσκονται στο διαδίκτυο, μπορεί να είναι πολύ τραυματικό, ειδικά για τους νέους», δήλωσε εκπρόσωπος του ιδρύματος στην Guardian.
Αυτή δεν είναι η πρώτη φορά που η Meta εμπλέκεται σε τέτοιες πρωτοβουλίες. Το 2017, το Facebook, που τώρα ονομάζεται Meta, προσπάθησε να αναπτύξει ένα παρόμοιο εργαλείο για ενήλικες. Δεν τα κατάφερε τότε, επειδή η εταιρεία ζήτησε από τους εθελοντές να υποβάλουν γυμνές εικόνες. Το 2021, η Meta μαζί με τη βρετανική υπηρεσία βοήθειας για το Revenge Porn ξεκίνησαν το πρόγραμμα StopNCII (Stop Non-Consensual Intimate Images), το οποίο στοχεύει ειδικά κατά της εξάπλωσης της πορνογραφικής εκδίκησης.
Πηγή: NOS
www.ertnews.gr
Πηγή: ertnews.gr