Categories: Apple

Κατηγόρησε λανθασμένα έναν πατέρα πως είναι δολοφόνος!


Μια αυστριακή ομάδα υπεράσπισης, η Noyb, κατέθεσε καταγγελία κατά της OpenAI επειδή το ChatGPT δήλωσε λανθασμένα ότι ένας Νορβηγός πατέρας είναι… δολοφόνος.

Όταν ένας Νορβηγός άνδρας ρώτησε το ChatGPT τι γνώριζε γι’ αυτόν, αυτό φέρεται να δήλωσε ότι είχε καταδικαστεί σε 21 χρόνια φυλάκισης για τη δολοφονία δύο από τα παιδιά του και την απόπειρα δολοφονίας του τρίτου. Το ChatGPT συμπεριέλαβε επίσης ακριβείς πληροφορίες σε αυτές τις λεπτομέρειες, όπως τον αριθμό των παιδιών που είχε, το φύλο τους και το όνομα της γενέτειράς του.

Η Noyb υποστηρίζει ότι αυτό έχει οδηγήσει την OpenAI σε παραβίαση του νόμου της Ευρωπαϊκής Ένωσης για την προστασία της ιδιωτικής ζωής και την ασφάλεια των δεδομένων, του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR). Ο δικηγόρος προστασίας δεδομένων της ομάδας υπεράσπισης, Joakim Söderberg, δήλωσε:

Ο GDPR είναι σαφής. Τα προσωπικά δεδομένα πρέπει να είναι ακριβή. Και αν δεν είναι, οι χρήστες έχουν το δικαίωμα να τα αλλάξουν ώστε να αντικατοπτρίζουν την αλήθεια. Το να δείχνετε στους χρήστες του ChatGPT μια μικροσκοπική δήλωση αποποίησης ευθύνης ότι το chatbot μπορεί να κάνει λάθη, σαφώς και δεν είναι αρκετό. Δεν μπορείτε απλώς να διαδίδετε ψευδείς πληροφορίες και στο τέλος να προσθέτετε μια μικρή αποποίηση ευθυνών λέγοντας ότι όλα όσα είπατε μπορεί απλώς να μην είναι αλήθεια

Αυτή δεν είναι η πρώτη φορά που η Noyb διαμαρτύρεται για τη διάδοση παραπληροφόρησης από την OpenAI. Η ομάδα υπεράσπισης παραπονέθηκε τον περασμένο Απρίλιο για το ότι η AI απέκτησε εσφαλμένα πληροφορίες για ένα δημόσιο πρόσωπο.

Μερικές φορές, η AI μπορεί να λαμβάνει λανθασμένες πληροφορίες, αλλά το να ισχυρίζεται ότι κάποιος είναι δολοφόνος είναι μάλλον εξωφρενικό. Αυτού του είδους οι λανθασμένες δηλώσεις από την AI είναι αυτό που η βιομηχανία αποκαλεί ψευδαίσθηση. Σε αντίθεση με τις ψευδαισθήσεις που βιώνουν οι άνθρωποι, οι ψευδαισθήσεις της AI αναφέρονται σε λανθασμένα κατασκευασμένες απαντήσεις, οι οποίες απορρέουν από τον τρόπο λειτουργίας των παραγωγικών συστημάτων AI, όπως τα μεγάλα γλωσσικά μοντέλα (LLM).

Οι ερευνητές λένε ότι τα LLM έχουν παραισθήσεις έως και 27% του χρόνου και ότι το 46% των παραγόμενων κειμένων περιλαμβάνει πραγματικά λάθη.

[via]



Πηγή

iTech News

Leave a Comment
Share
Published by
iTech News

Recent Posts

Ανοίγει στις 4 Απριλίου η BEYOND 2025 στο Metropolitan Expo

Ανοίγει στις 4 Απριλίου η BEYOND 2025 στο Metropolitan Expo - Newsbeast play …

9 ώρες ago

Χρησιμοποιείς το TikTok; Τσέκαρε το Security Checkup

Το TikTok παρουσίασε το νέο εργαλείο Security Checkup, ενθαρρύνοντας τους χρήστες να διατηρούν καλύτερα τους…

12 ώρες ago

Δείτε την ανασκόπηση του 1ου κύκλου λίγο πριν την πρεμιέρα της 2ης σεζόν

Το Disney+ αποκαλύπτει το νέο συναρπαστικό τρέιλερ και το νέο πόστερ του δεύτερου κύκλου, της υποψήφιας για Emmy® σειράς…

13 ώρες ago

Τα νέα ασύρματα ακουστικά της εταιρείας

Η Sony ανακοίνωσε τα truly wireless ακουστικά εξουδετέρωσης θορύβου WF-C710N, με την τεχνολογία εξουδετέρωσης θορύβου…

13 ώρες ago

Υπ. Ψηφιακής Διακυβέρνησης: Ο νέος υπερυπολογιστής «Δαίδαλος» και άλλα κρίσιμα θέματα σε 24 ερωταπαντήσεις

Σε σημαντικά ερωτήματα σχετικά με την έναρξη υλοποίησης του νέου εθνικού υπερυπολογιστή «ΔΑΙΔΑΛΟΣ», του Κέντρου…

13 ώρες ago

Το επόμενο extra μάλλον θα είναι ο έλεγχος της ποιότητας του ήχου

Η Google εμπλουτίζει σταδιακά το συνδρομητικό πακέτο YouTube Premium με νέες αποκλειστικές λειτουργίες και φαίνεται…

14 ώρες ago