Ο OpenAI έχει αναπτύξει μια εσωτερική κλίμακα για την καταγραφή της προόδου των μεγάλων γλωσσικών μοντέλων του προς την κατεύθυνση της γενικής Τεχνητής Νοημοσύνης (AGI), σύμφωνα με δημοσίευμα του Bloomberg.
Με τον όρο AGI εννοείται συνήθως η Τεχνητή Νοημοσύνη που μοιάζει με την ανθρώπινη και θεωρείται ο ευρύτερος στόχος για τους προγραμματιστές. Σε παλαιότερες αναφορές, ο OpenAI όρισε την AGI ως “ένα εξαιρετικά αυτόνομο σύστημα που θα ξεπερνά τον άνθρωπο στις περισσότερες οικονομικά πολύτιμες εργασίες”. Αυτό είναι ένα σημείο που υπερβαίνει κατά πολύ τις σημερινές δυνατότητες της Τεχνητής Νοημοσύνης. Αυτή η νέα κλίμακα έχει ως στόχο να παρέχει ένα δομημένο πλαίσιο για την παρακολούθηση των εξελίξεων και τον καθορισμό σημείων αναφοράς στην εν λόγω επιδίωξη.
Η κλίμακα που εισήγαγε ο OpenAI αναλύει την πρόοδο σε πέντε επίπεδα ή ορόσημα στην πορεία προς την AGI. Το ChatGPT και τα αντίπαλα chatbots είναι το επίπεδο 1. Ο OpenAI ισχυρίστηκε ότι βρίσκεται στα πρόθυρα της επίτευξης του επιπέδου 2, το οποίο θα είναι ένα σύστημα Τεχνητής Νοημοσύνης ικανό να συγκριθεί με έναν άνθρωπο με διδακτορικό δίπλωμα όταν πρόκειται για την επίλυση βασικών προβλημάτων. Αυτό μπορεί να είναι μια αναφορά στο GPT-5, το οποίο ο CEO του OpenAI, Sam Altman, δήλωσε ότι θα αποτελέσει ένα “σημαντικό άλμα προς τα εμπρός“. Μετά το επίπεδο 2, τα επίπεδα γίνονται όλο και πιο πολύπλοκα.
Το επίπεδο 3 θα είναι ένας AI agent ικανός να διεκπεραιώνει εργασίες για εσάς χωρίς να είστε εκεί, ενώ ένα επίπεδο 4 AI θα εφευρίσκει πραγματικά νέες ιδέες και έννοιες. Στο Επίπεδο 5, η Τεχνητή Νοημοσύνη δεν θα είναι σε θέση να αναλαμβάνει καθήκοντα μόνο για ένα άτομο αλλά για ολόκληρους οργανισμούς.
Η ιδέα των επιπέδων έχει νόημα για τον OpenAI αλλά και για οποιονδήποτε προγραμματιστή. Στην πραγματικότητα, ένα ολοκληρωμένο πλαίσιο όχι μόνο βοηθά τον OpenAI εσωτερικά, αλλά μπορεί επίσης να θέσει ένα καθολικό πρότυπο που θα μπορούσε να εφαρμοστεί για την αξιολόγηση άλλων μοντέλων Τεχνητής Νοημοσύνης.
Παρόλα αυτά, η επίτευξη της AGI δεν πρόκειται να συμβεί άμεσα. Προηγούμενα σχόλια του Altman και άλλων στον OpenAI υποδηλώνουν μόλις πέντε χρόνια, αλλά τα χρονοδιαγράμματα διαφέρουν σημαντικά μεταξύ των ειδικών. Η ποσότητα της απαιτούμενης υπολογιστικής ισχύος και οι οικονομικές και τεχνολογικές προκλήσεις είναι σημαντικές.
Αυτό έρχεται να προστεθεί στα ζητήματα ηθικής και ασφάλειας που προκαλεί η AGI. Υπάρχει πραγματική ανησυχία για το τι θα σήμαινε η Τεχνητή Νοημοσύνη σε αυτό το επίπεδο για την κοινωνία. Και οι πρόσφατες κινήσεις του OpenAI μπορεί να μην καθησυχάσουν κανέναν. Τον Μάιο, η εταιρεία διέλυσε την ομάδα ασφαλείας της μετά την αποχώρηση του επικεφαλής της και συνιδρυτή της OpenAI, Ilya Sutskever. Ο ερευνητής υψηλού επιπέδου Jan Leike παραιτήθηκε επίσης, επικαλούμενος ανησυχίες ότι η κουλτούρα ασφάλειας του OpenAI αγνοείται. Παρ’ όλα αυτά, προσφέροντας ένα δομημένο πλαίσιο, ο OpenAI στοχεύει να θέσει συγκεκριμένα σημεία αναφοράς για τα μοντέλα του και αυτά των ανταγωνιστών του και ίσως να βοηθήσει όλους μας να προετοιμαστούμε για το τι έρχεται.
[via]