Το Facebook, το οποίο δημιουργήθηκε το 2004, συγκέντρωσε 100 εκατομμύρια χρήστες σε μόλις τεσσεράμισι χρόνια. Η ταχύτητα και η κλίμακα της ανάπτυξής της ήταν πρωτοφανής. Προτού κάποιος είχε την ευκαιρία να καταλάβει τα προβλήματα που θα μπορούσε να προκαλέσει το δίκτυο κοινωνικής δικτύωσης, είχε εξελιχθεί σε ένα εδραιωμένο μεγαθήριο.
Το 2015, ο ρόλος της πλατφόρμας στην παραβίαση της ιδιωτικής ζωής των πολιτών και της δυνατότητας πολιτικής χειραγώγησης αποκαλύφθηκε από το σκάνδαλο της Cambridge Analytica. Περίπου την ίδια περίοδο, στη Μιανμάρ, το κοινωνικό δίκτυο ενίσχυσε την παραπληροφόρηση και τις εκκλήσεις για βία κατά των Ροχίνγκια, μιας εθνικής μειονότητας στη χώρα, η οποία κορυφώθηκε σε μια γενοκτονία που ξεκίνησε το 2016. Το 2021, η Wall Street Journal ανέφερε ότι το Instagram, το οποίο είχε αποκτηθεί από το Facebook το 2012, είχε πραγματοποιήσει έρευνα που έδειχνε ότι η εφαρμογή ήταν τοξική για την ψυχική υγεία των έφηβων κοριτσιών.
Οι υπερασπιστές του Facebook λένε ότι αυτές οι επιπτώσεις ήταν ακούσιες και απρόβλεπτες. Οι επικριτές ισχυρίζονται ότι, αντί να κινούνται γρήγορα και να σπάνε τα πράγματα, οι εταιρείες κοινωνικών μέσων θα έπρεπε να έχουν αποφύγει προληπτικά την ηθική καταστροφή. Αλλά και οι δύο πλευρές συμφωνούν ότι οι νέες τεχνολογίες μπορούν να προκαλέσουν ηθικούς εφιάλτες και αυτό θα πρέπει να κάνει τους ηγέτες των επιχειρήσεων – και την κοινωνία – πολύ, πολύ νευρικούς.
Το ChatGPT-5 πιθανότατα θα είναι εδώ πριν το καταλάβουμε. Και σε αντίθεση με τα μέσα κοινωνικής δικτύωσης, τα οποία παραμένουν σε μεγάλο βαθμό συγκεντρωτικά, αυτή η τεχνολογία βρίσκεται ήδη στα χέρια χιλιάδων ανθρώπων. Ερευνητές στο Stanford αναδημιούργησαν το ChatGPT για περίπου 600 $ και έκαναν το μοντέλο τους, που ονομάζεται Alpaca, ανοιχτού κώδικα. Μέχρι τις αρχές Απριλίου, περισσότερα από 2.400 άτομα είχαν φτιάξει τις δικές τους εκδοχές του.
Είναι καιρός για μια νέα προσέγγιση. Οι εταιρείες που αναπτύσσουν αυτές τις τεχνολογίες πρέπει να αναρωτηθούν: «Πώς τις αναπτύσσουμε, τις εφαρμόζουμε και τις παρακολουθούμε με τρόπους που αποφεύγουν τα χειρότερα σενάρια;» Και οι εταιρείες που προμηθεύονται αυτές τις τεχνολογίες και, σε ορισμένες περιπτώσεις, τις προσαρμόζουν (όπως κάνουν τώρα οι επιχειρήσεις με το ChatGPT) αντιμετωπίζουν μια εξίσου τρομακτική πρόκληση: «Πώς τις σχεδιάζουμε και τις αναπτύσσουμε με τρόπο που διατηρεί τους ανθρώπους (και την επωνυμία μας) ασφαλή; ”
Οι επιπτώσεις που προκαλούν διακρίσεις είναι μόνο ένας ηθικός εφιάλτης που πρέπει να αποφευχθεί με την τεχνητή νοημοσύνη. Υπάρχουν επίσης ανησυχίες για το απόρρητο, ο κίνδυνος χρησιμοποίησης μοντέλων τεχνητής νοημοσύνης (ειδικά μεγάλων γλωσσικών μοντέλων όπως το ChatGPT) για χειραγώγηση ανθρώπων, το περιβαλλοντικό κόστος της τεράστιας υπολογιστικής ισχύος που απαιτείται και αμέτρητοι άλλοι κίνδυνοι που αφορούν συγκεκριμένες περιπτώσεις χρήσης.
Οι ηθικοί εφιάλτες μπορούν να διατυπωθούν με διαφορετικά επίπεδα λεπτομέρειας και προσαρμογής. Οι ηθικοί σας εφιάλτες καλύπτονται εν μέρει από τον κλάδο στον οποίο βρίσκεστε, το είδος της οργάνωσης που είστε και τα είδη των σχέσεων που πρέπει να έχετε με τους πελάτες, τους πελάτες και άλλους ενδιαφερόμενους φορείς για να πάνε καλά τα πράγματα. Για παράδειγμα, εάν είστε πάροχος υγειονομικής περίθαλψης που έχει κλινικούς γιατρούς που χρησιμοποιούν το ChatGPT ή άλλο LLM για να κάνουν διαγνώσεις και συστάσεις θεραπείας, τότε ο ηθικός σας εφιάλτης μπορεί να περιλαμβάνει ευρέως διαδεδομένες ψευδείς συστάσεις που οι άνθρωποι σας δεν έχουν την κατάρτιση να εντοπίσουν.
Οι ηγέτες πρέπει να κατανοήσουν ότι η ανάπτυξη μιας ψηφιακής στρατηγικής ηθικού κινδύνου εμπίπτει πλήρως στις δυνατότητές τους. Οι περισσότεροι εργαζόμενοι και καταναλωτές θέλουν οι οργανισμοί να έχουν μια ψηφιακή στρατηγική ηθικού κινδύνου. Η διοίκηση δεν πρέπει να πτοείται.