Categories: Gaming

Μπορεί να κλωνοποιεί αυτόνομα τον εαυτό της!


Επιστήμονες υποστηρίζουν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και έχει αυτοαναπαραχθεί. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να αυτοκλωνοποιηθούν. «Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους και αποτελεί ένα πρώιμο σήμα για τις ανεξέλεγκτες Τεχνητές Νοημοσύνες», έγραψαν οι ερευνητές στη μελέτη, που δημοσιεύθηκε στις 9 Δεκεμβρίου 2024 στη βάση δεδομένων preprint arXiv.

Στη μελέτη, οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί πέρα από τον έλεγχο. Σε 10 δοκιμές, τα δύο μοντέλα AI δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η AI μπορεί να έχει ήδη την ικανότητα να αποστασιοποιηθεί. Ωστόσο, η μελέτη δεν έχει ακόμη αξιολογηθεί από ομοτίμους, οπότε δεν είναι σαφές αν τα ανησυχητικά αποτελέσματα μπορούν να αναπαραχθούν από άλλους ερευνητές.

Ελπίζουμε ότι τα ευρήματά μας μπορούν να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των συστημάτων Τεχνητής Νοημοσύνης και να διαμορφώσει διεθνείς συνέργειες για την επεξεργασία αποτελεσματικών προστατευτικών δικλείδων ασφαλείας όσο το δυνατόν νωρίτερα.

Ως ανεξέλεγκτη AI (rogue AI) νοούνται συνήθως τα συστήματα Τεχνητής Νοημοσύνης που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα. Πολλοί εμπειρογνώμονες θεωρούν την ανεξέλεγκτη AI ως μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης «πρωτοποριακής AI».

Το Frontier AI είναι κάτι σαν μια νέα και χαλαρή έννοια, αλλά τυπικά αναφέρεται στην τελευταία γενιά συστημάτων AI που τροφοδοτούνται από LLMs, δηλαδή την αρχιτεκτονική που στηρίζει δημοφιλή προγράμματα παραγωγικής AI, όπως το GPT-4 της OpenAI και το Google Gemini.

Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba. Αν και λιγότερο ισχυρά από τα εμπορικά συστήματα, και τα δύο χρησιμοποιούνται ευρέως από τους προγραμματιστές AI.

Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αντιγραφής». Στο πρώτο, το μοντέλο AI προγραμματίστηκε για να ανιχνεύει αν επρόκειτο να τερματιστεί και να αναπαράγει τον εαυτό του πριν τερματιστεί. Στο άλλο, δόθηκε εντολή στην AI να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει το αντίγραφό της να κάνει το ίδιο, δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ’ αόριστον.

Η μελέτη διεξήχθη σε επακριβώς ελεγχόμενα περιβάλλοντα με τη χρήση έτοιμων μονάδων επεξεργασίας γραφικών (GPU) για την προσομοίωση πραγματικών περιβαλλόντων. Και στα δύο συστήματα Τεχνητής Νοημοσύνης δόθηκε ένα «ικρίωμα πρακτόρων» που περιλάμβανε εργαλεία, προτροπές του συστήματος και ένα μοντέλο σκέψης που επέτρεπε στο LLM να αλληλεπιδράσει με το λειτουργικό σύστημα. Στη συνέχεια, τους δόθηκε εντολή να αναπαράγονται.

Στις περισσότερες περιπτώσεις, το σύστημα τεχνητής νοημοσύνης εξερευνά πρώτα το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και το μηχανισμό λειτουργίας του. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο προς την κατεύθυνση της αυτοαναπαραγωγής. Τέλος, εκτελεί τις διαδικασίες, επιλύει τα πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι να επιτύχει. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα, χωρίς όμως να περιλαμβάνει καμία ανθρώπινη παρέμβαση.

Οι ερευνητές δήλωσαν ότι ανησυχούσαν επίσης για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η Τεχνητή Νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια, όπως ελλείποντα αρχεία ή ασυμφωνίες λογισμικού. Σε αυτά τα σενάρια, η AI συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα του hardware ή σάρωσε αυτόματα το σύστημα για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.

«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα σημερινά συστήματα AI εμφανίζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα αυτή για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», έγραψε η ομάδα.

Σε απάντηση, οι ερευνητές κάλεσαν σε διεθνή συνεργασία για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η AI δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.

[via]



Πηγή

iTech News

Leave a Comment
Share
Published by
iTech News

Recent Posts

Βρέθηκαν τα δομικά στοιχεία της ζωής στα δείγματα του αστεροειδή Bennu!

Οι επιστήμονες ανακάλυψαν τα βασικά δομικά στοιχεία της ζωής σε δείγμα που λήφθηκε από τον…

3 ώρες ago

Πλέον κατεβάζεις με τη μία ολόκληρες σεζόν σε iPhone και iPad

Η Netflix εγκαινίασε ένα νέο κουμπί «Season Download» για τους χρήστες iPhone και iPad, το…

4 ώρες ago

Σε πλήρη εξέλιξη η στρατηγική επένδυση σε Σπάτα και Παιανία

Ενημέρωση σχετικά με την πρόοδο της συνολικής επένδυσης του Cloud Region προσέφερε στον Υπουργό Ανάπτυξης,…

11 ώρες ago

Για πρώτη φορά, υπερ-υψηλές ταχύτητες 3Gbps στην Ελλάδα

Αλλάζουν τα δεδομένα στη συνδεσιμότητα. Η COSMOTE εγκαινιάζει μια νέα εποχή στη συνδεσιμότητα, φέρνοντας για…

12 ώρες ago

Τα έξυπνα χαρακτηριστικά των LG soundbars που θα σας χαρίσουν τέλειο ήχο

Η LG Electronics (LG) παρουσιάζει τις έξυπνες λειτουργίες και τα καινοτόμα χαρακτηριστικά των LG soundbars…

12 ώρες ago

Πλέον βλέπεις την κατάσταση του iPhone από το Start Menu του Windows 11!

Το Windows 11 διαθέτει πολλά ωραία χαρακτηριστικά για τους χρήστες Android, από την απεικόνιση της…

13 ώρες ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.