Για πρώτη φορά στην ιστορία, ένας δικαστής στην Κολομβία χρησιμοποίησε το εργαλείο τεχνητής νοημοσύνης ChatGPT για να εκδώσει μια δικαστική απόφαση, όπως αναφέρει ρεπορτάζ του «Vice».
Ο δικαστής Χουάν Μανουέλ Παντίγια Γκαρσία δήλωσε ότι χρησιμοποίησε το εργαλείο σε απόφασή του που αφορούσε στην κάλυψη των ιατρικών εξόδων ενός παιδιού με αυτισμό από ασφαλιστική εταιρεία.
«Ο σκοπός της συμπερίληψης αυτών των κειμένων που παρήγαγε η τεχνητή νοημοσύνη δεν είναι να αντικαταστήσει την απόφαση του δικαστή», έγραψε ο Γκαρσία. «Αυτό που πραγματικά επιδιώκουμε είναι να μειώσουμε τον χρόνο που απαιτείται για τη σύνταξη αποφάσεων μετά την επιβεβαίωση των πληροφοριών που παρέχονται από την τεχνητή νοημοσύνη».
Ο Γκαρσία συμπεριέλαβε τις απαντήσεις του chatbot στην απόφασή του, σηματοδοτώντας την πρώτη φορά που ένας δικαστής παραδέχεται ότι κάνει κάτι τέτοιο. Ο δικαστής συμπεριέλαβε επίσης τις δικές του απόψεις σχετικά με τα ισχύοντα νομικά προηγούμενα και δήλωσε ότι η τεχνητή νοημοσύνη χρησιμοποιήθηκε για να «επεκτείνει τα επιχειρήματα της εκδοθείσας απόφασης».
Ένα από τα ερωτήματα που έθεσε στο ChatGPT ο Κολομβιανός δικαστής ήταν το εξής: «Απαλλάσσεται ένας ανήλικος με αυτισμό από την καταβολή εξόδων για την θεραπεία του;»
Ο Γκαρσία κατέληξε στο συμπέρασμα ότι το σύνολο των ιατρικών εξόδων και των εξόδων μεταφοράς του παιδιού πρέπει να καλυφθεί από το ιατρικό του πρόγραμμα, καθώς οι γονείς του δεν μπορούσαν να ανταπεξέλθουν οικονομικά.
Η κολομβιανή νομοθεσία δεν απαγορεύει τη χρήση της τεχνητής νοημοσύνης σε δικαστικές αποφάσεις, αλλά συστήματα όπως το ChatGPT είναι γνωστό ότι δίνουν απαντήσεις που είναι προκατειλημμένες, μεροληπτικές ή απλά λανθασμένες. Αυτό συμβαίνει επειδή το γλωσσικό μοντέλο δεν κατέχει καμία πραγματική κατανόηση του κειμένου – απλώς συνθέτει προτάσεις με βάση τις πιθανότητες από τα εκατομμύρια παραδείγματα που χρησιμοποιούνται για την εκπαίδευσή του.
Οι δημιουργοί του ChatGPT έχουν εφαρμόσει φίλτρα για να εξαλείψουν ορισμένες από τις πιο προβληματικές απαντήσεις. Ωστόσο, οι προγραμματιστές προειδοποιούν ότι το εργαλείο εξακολουθεί να έχει σημαντικούς περιορισμούς και δεν πρέπει να χρησιμοποιείται για τη λήψη σοβαρών αποφάσεων.
Αξίζει να σημειωθεί ότι η νεοφυής επιχείρηση DoNotPay επιχείρησε πρόσφατα να χρησιμοποιήσει ένα ρομπότ- δικηγόρο σε μια δικαστική αίθουσα. Αναγκάστηκε όμως να ακυρώσει τα σχέδιά της όταν οι εισαγγελείς απείλησαν με φυλάκιση τον διευθύνοντα σύμβουλο της εταιρείας εάν έφερνε ένα ρομπότ-δικηγόρο σε μια δικαστική αίθουσα.
ΠΗΓΗ: VICE