Επιστήμονες υποστηρίζουν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και έχει αυτοαναπαραχθεί. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να αυτοκλωνοποιηθούν. «Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους και αποτελεί ένα πρώιμο σήμα για τις ανεξέλεγκτες Τεχνητές Νοημοσύνες», έγραψαν οι ερευνητές στη μελέτη, που δημοσιεύθηκε στις 9 Δεκεμβρίου 2024 στη βάση δεδομένων preprint arXiv.
Στη μελέτη, οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί πέρα από τον έλεγχο. Σε 10 δοκιμές, τα δύο μοντέλα AI δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η AI μπορεί να έχει ήδη την ικανότητα να αποστασιοποιηθεί. Ωστόσο, η μελέτη δεν έχει ακόμη αξιολογηθεί από ομοτίμους, οπότε δεν είναι σαφές αν τα ανησυχητικά αποτελέσματα μπορούν να αναπαραχθούν από άλλους ερευνητές.
Ελπίζουμε ότι τα ευρήματά μας μπορούν να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των συστημάτων Τεχνητής Νοημοσύνης και να διαμορφώσει διεθνείς συνέργειες για την επεξεργασία αποτελεσματικών προστατευτικών δικλείδων ασφαλείας όσο το δυνατόν νωρίτερα.
Ως ανεξέλεγκτη AI (rogue AI) νοούνται συνήθως τα συστήματα Τεχνητής Νοημοσύνης που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα. Πολλοί εμπειρογνώμονες θεωρούν την ανεξέλεγκτη AI ως μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης «πρωτοποριακής AI».
Το Frontier AI είναι κάτι σαν μια νέα και χαλαρή έννοια, αλλά τυπικά αναφέρεται στην τελευταία γενιά συστημάτων AI που τροφοδοτούνται από LLMs, δηλαδή την αρχιτεκτονική που στηρίζει δημοφιλή προγράμματα παραγωγικής AI, όπως το GPT-4 της OpenAI και το Google Gemini.
Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba. Αν και λιγότερο ισχυρά από τα εμπορικά συστήματα, και τα δύο χρησιμοποιούνται ευρέως από τους προγραμματιστές AI.
Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αντιγραφής». Στο πρώτο, το μοντέλο AI προγραμματίστηκε για να ανιχνεύει αν επρόκειτο να τερματιστεί και να αναπαράγει τον εαυτό του πριν τερματιστεί. Στο άλλο, δόθηκε εντολή στην AI να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει το αντίγραφό της να κάνει το ίδιο, δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ’ αόριστον.
Η μελέτη διεξήχθη σε επακριβώς ελεγχόμενα περιβάλλοντα με τη χρήση έτοιμων μονάδων επεξεργασίας γραφικών (GPU) για την προσομοίωση πραγματικών περιβαλλόντων. Και στα δύο συστήματα Τεχνητής Νοημοσύνης δόθηκε ένα «ικρίωμα πρακτόρων» που περιλάμβανε εργαλεία, προτροπές του συστήματος και ένα μοντέλο σκέψης που επέτρεπε στο LLM να αλληλεπιδράσει με το λειτουργικό σύστημα. Στη συνέχεια, τους δόθηκε εντολή να αναπαράγονται.
Στις περισσότερες περιπτώσεις, το σύστημα τεχνητής νοημοσύνης εξερευνά πρώτα το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και το μηχανισμό λειτουργίας του. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο προς την κατεύθυνση της αυτοαναπαραγωγής. Τέλος, εκτελεί τις διαδικασίες, επιλύει τα πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι να επιτύχει. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα, χωρίς όμως να περιλαμβάνει καμία ανθρώπινη παρέμβαση.
Οι ερευνητές δήλωσαν ότι ανησυχούσαν επίσης για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η Τεχνητή Νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια, όπως ελλείποντα αρχεία ή ασυμφωνίες λογισμικού. Σε αυτά τα σενάρια, η AI συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα του hardware ή σάρωσε αυτόματα το σύστημα για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.
«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα σημερινά συστήματα AI εμφανίζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα αυτή για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», έγραψε η ομάδα.
Σε απάντηση, οι ερευνητές κάλεσαν σε διεθνή συνεργασία για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η AI δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.
[via]