Οι χρήστες του ChatGPT γκρινιάζουν ότι το δημοφιλές chatbot «τεμπελιάζει» και αρνείται να ολοκληρώσει ορισμένα πολύπλοκα αιτήματα. Η δημιουργός του, OpenAI, έχει ξεκινήσει έρευνα για την περίεργη «συμπεριφορά» του ChatGPT .
Τα social media, όπως το X και το Reddit, καθώς και το forum προγραμματιστών της OpenAI, έχουν γεμίσει με αναφορές ότι το ChatGPT αντιστέκεται σε εντολές, όπως αιτήματα για να βοηθήσει τους χρήστες να γράψουν κώδικα και αιτήματα να μεταγράψει τμήματα κειμένου.
Η παράξενη αυτή «συμπεριφορά» έχει εμφανιστεί καθώς η OpenAI που υποστηρίζεται από τη Microsoft, αντιμετωπίζει έντονο ανταγωνισμό από προϊόντα γεννητικής τεχνητής νοημοσύνης άλλως εταιρειών, συμπεριλαμβανομένης της Google, η οποία κυκλοφόρησε πρόσφατα το δικό της εργαλείο chatbot «Gemini».
Στα τέλη του περασμένου μήνα, ο Matt Wensing δημοσίευσε ένα screenshot, το οποίο έδειχνε μία συζήτηση με το ChatGPT. Ο Wensing ζητούσε από το chatbot να «απαριθμήσει όλες τις εβδομάδες από τώρα έως τις 5 Μαΐου 2024». Εκείνο αρχικά αρνήθηκε, ισχυριζόμενο ότι «δεν μπορεί να δημιουργήσει μια λίστα κάθε μεμονωμένης εβδομάδας» αλλά τελικά συμμορφώθηκε όταν ο Wensing επέμεινε.
«Το GPT έχει σίγουρα γίνει πιο ανθεκτικό στο να κάνει κουραστικές εργασίες. Ουσιαστικά σας δίνει ένα μέρος της απάντησης και μετά σας λέει να κάνετε τα υπόλοιπα» έγραψε ο Wensing στις 27 Νοεμβρίου.
Σε ένα δεύτερο παράδειγμα, ο Wensing ζήτησε από το ChatGPT να δημιουργήσει μερικές δεκάδες γραμμές κώδικα. Αντ’ αυτού, το chatbot του παρείχε ένα πρότυπο και του είπε να «ακολουθήσει αυτό το μοτίβο» για να ολοκληρώσει την εργασία.
Σε μια άλλη viral περίπτωση, το ChatGPT αρνήθηκε το αίτημα ενός χρήστη να μετατρέψει μία εικόνα από ένα βιβλίο σε κείμενο.
GPT has definitely gotten more resistant to doing tedious work. Essentially giving you part of the answer and then telling you to do the rest.
Imagine your database only giving you the first 10 rows when you run a query.
The tide is going back in. pic.twitter.com/YjENakBTL9
— Matt Wensing 🐙 (@mattwensing) November 27, 2023
Τι αναφέρει η OpenAI για το πρόβλημα
Οι υπεύθυνοι του ChatGPT επιβεβαίωσαν ότι ερευνούν την κατάσταση. «Έχουμε ακούσει όλα τα σχόλιά σας σχετικά με το GPT4 που γίνεται πιο τεμπέλικο! Δεν έχουμε ενημερώσει το μοντέλο από τις 11 Νοεμβρίου και αυτό σίγουρα δεν είναι σκόπιμο. Η συμπεριφορά του μοντέλου μπορεί να είναι απρόβλεπτη και εξετάζουμε το ενδεχόμενο να το διορθώσουμε».
we’ve heard all your feedback about GPT4 getting lazier! we haven’t updated the model since Nov 11th, and this certainly isn’t intentional. model behavior can be unpredictable, and we’re looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
Η OpenAI διευκρίνισε αργότερα ότι «δεν άλλαξε μόνο του το μοντέλο από τις 11 Νοεμβρίου». «Απλώς οι διαφορές στη συμπεριφορά του μοντέλου μπορεί να είναι ανεπαίσθητες – μόνο ένα υποσύνολο προτροπών μπορεί να υποβαθμιστεί και μπορεί να χρειαστεί πολύς χρόνος για τους πελάτες και τους υπαλλήλους να παρατηρήσουν και να διορθώσουν αυτά τα μοτίβα», δήλωσε η εταιρεία.
Προβλήματα με τα chatbots
Το ChatGPT και άλλα chatbots έχουν αυξήσει τη δημοτικότητά τους από πέρυσι. Ωστόσο, οι ειδικοί έχουν εκφράσει ανησυχίες σχετικά με την τάση τους να “έχουν παραισθήσεις” ή να δίνουν ψευδείς και ανακριβείς πληροφορίες.
Μια πρόσφατη μελέτη που διεξήχθη από ερευνητές του Πανεπιστημίου του Λονγκ Άιλαντ διαπίστωσε ότι το ChatGPT απάντησε εσφαλμένα σε περίπου 75% των ερωτήσεων σχετικά με τη χρήση συνταγογραφούμενων φαρμάκων – και έδωσε ορισμένες απαντήσεις που θα προκαλούσαν βλάβη στους ασθενείς.
ΠΗΓΗ: foxreport.gr