Μια αυστριακή ομάδα υπεράσπισης, η Noyb, κατέθεσε καταγγελία κατά της OpenAI επειδή το ChatGPT δήλωσε λανθασμένα ότι ένας Νορβηγός πατέρας είναι… δολοφόνος.
Όταν ένας Νορβηγός άνδρας ρώτησε το ChatGPT τι γνώριζε γι’ αυτόν, αυτό φέρεται να δήλωσε ότι είχε καταδικαστεί σε 21 χρόνια φυλάκισης για τη δολοφονία δύο από τα παιδιά του και την απόπειρα δολοφονίας του τρίτου. Το ChatGPT συμπεριέλαβε επίσης ακριβείς πληροφορίες σε αυτές τις λεπτομέρειες, όπως τον αριθμό των παιδιών που είχε, το φύλο τους και το όνομα της γενέτειράς του.
Η Noyb υποστηρίζει ότι αυτό έχει οδηγήσει την OpenAI σε παραβίαση του νόμου της Ευρωπαϊκής Ένωσης για την προστασία της ιδιωτικής ζωής και την ασφάλεια των δεδομένων, του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR). Ο δικηγόρος προστασίας δεδομένων της ομάδας υπεράσπισης, Joakim Söderberg, δήλωσε:
Ο GDPR είναι σαφής. Τα προσωπικά δεδομένα πρέπει να είναι ακριβή. Και αν δεν είναι, οι χρήστες έχουν το δικαίωμα να τα αλλάξουν ώστε να αντικατοπτρίζουν την αλήθεια. Το να δείχνετε στους χρήστες του ChatGPT μια μικροσκοπική δήλωση αποποίησης ευθύνης ότι το chatbot μπορεί να κάνει λάθη, σαφώς και δεν είναι αρκετό. Δεν μπορείτε απλώς να διαδίδετε ψευδείς πληροφορίες και στο τέλος να προσθέτετε μια μικρή αποποίηση ευθυνών λέγοντας ότι όλα όσα είπατε μπορεί απλώς να μην είναι αλήθεια
Αυτή δεν είναι η πρώτη φορά που η Noyb διαμαρτύρεται για τη διάδοση παραπληροφόρησης από την OpenAI. Η ομάδα υπεράσπισης παραπονέθηκε τον περασμένο Απρίλιο για το ότι η AI απέκτησε εσφαλμένα πληροφορίες για ένα δημόσιο πρόσωπο.
Μερικές φορές, η AI μπορεί να λαμβάνει λανθασμένες πληροφορίες, αλλά το να ισχυρίζεται ότι κάποιος είναι δολοφόνος είναι μάλλον εξωφρενικό. Αυτού του είδους οι λανθασμένες δηλώσεις από την AI είναι αυτό που η βιομηχανία αποκαλεί ψευδαίσθηση. Σε αντίθεση με τις ψευδαισθήσεις που βιώνουν οι άνθρωποι, οι ψευδαισθήσεις της AI αναφέρονται σε λανθασμένα κατασκευασμένες απαντήσεις, οι οποίες απορρέουν από τον τρόπο λειτουργίας των παραγωγικών συστημάτων AI, όπως τα μεγάλα γλωσσικά μοντέλα (LLM).
Οι ερευνητές λένε ότι τα LLM έχουν παραισθήσεις έως και 27% του χρόνου και ότι το 46% των παραγόμενων κειμένων περιλαμβάνει πραγματικά λάθη.
[via]