Σε μια ανάρτηση στο προσωπικό του blog, ο CEO της OpenAI, Sam Altman, δήλωσε πως η OpenAI «γνωρίζει πώς να κατασκευάσει «τεχνητή γενική νοημοσύνη (AGI)», όπως παραδοσιακά την αντιλαμβανόταν η εταιρεία, και αρχίζει να στρέφει τον στόχο της στην «υπερ-νοημοσύνη».
Αγαπάμε τα τρέχοντα προϊόντα μας, αλλά είμαστε εδώ για το ένδοξο μέλλον τα εργαλεία υπερ-νοημοσύνης θα μπορούσαν να επιταχύνουν μαζικά την επιστημονική ανακάλυψη και την καινοτομία πολύ περισσότερο από ό,τι είμαστε ικανοί να κάνουμε μόνοι μας, και με τη σειρά τους να αυξήσουν μαζικά την αφθονία και την ευημερία.
Ο Altman είχε δηλώσει προηγουμένως ότι η υπερ-νοημοσύνη θα μπορούσε να βρίσκεται «μερικές χιλιάδες ημέρες» μακριά και ότι η άφιξή της θα είναι «πιο έντονη από ό,τι νομίζουν οι άνθρωποι».
Η AGI, ή τεχνητή γενική νοημοσύνη, είναι ένας νεφελώδης όρος, αλλά η OpenAI έχει τον δικό της ορισμό: «εξαιρετικά αυτόνομα συστήματα που ξεπερνούν τους ανθρώπους στις περισσότερες οικονομικά πολύτιμες εργασίες». Η OpenAI και η Microsoft, στενός συνεργάτης και επενδυτής της startup, έχουν επίσης έναν ορισμό της AGI: Συστήματα τεχνητής νοημοσύνης που μπορούν να αποφέρουν κέρδη τουλάχιστον 100 δισεκατομμυρίων δολαρίων. Όταν η OpenAI το επιτύχει αυτό, η Microsoft θα χάσει την πρόσβαση στην τεχνολογία της, βάσει συμφωνίας μεταξύ των δύο εταιρειών.
Σε ποιον ορισμό μπορεί λοιπόν να αναφέρεται ο Altman; Δεν διευκρίνισε, αλλά ο πρώτος φαίνεται πιο πιθανός. Ο Altman έγραψε ότι πιστεύει ότι οι AI agents – συστήματα AI που μπορούν να εκτελούν αυτόνομα ορισμένες εργασίες – μπορεί να «ενταχθούν στο εργατικό δυναμικό», κατά κάποιο τρόπο, και να «αλλάξουν ουσιαστικά την παραγωγή των εταιρειών» κατά το τρέχον έτος.
Συνεχίζουμε να πιστεύουμε ότι η επαναλαμβανόμενη τοποθέτηση σπουδαίων εργαλείων στα χέρια των ανθρώπων οδηγεί σε σπουδαία, ευρέως διαδεδομένα αποτελέσματα.
Αυτό είναι πιθανό, αλλά είναι επίσης αλήθεια ότι η σημερινή τεχνολογία τεχνητής νοημοσύνης είναι σημαντικά περιορισμένη. Έχει παραισθήσεις, για παράδειγμα, κάνει λάθη προφανή σε κάθε άνθρωπο και μπορεί να είναι πολύ ακριβή.
Ο Altman φαίνεται βέβαιος ότι όλα αυτά μπορούν να ξεπεραστούν – και μάλιστα γρήγορα. Παρόλα αυτά, αν υπάρχει κάτι που μάθαμε για την Τεχνητή Νοημοσύνη από τα τελευταία χρόνια, είναι ότι τα χρονοδιαγράμματα μπορούν να μετατοπιστούν.
Είμαστε αρκετά σίγουροι ότι τα επόμενα χρόνια, όλοι θα δουν αυτό που βλέπουμε εμείς και ότι η ανάγκη να ενεργούμε με μεγάλη προσοχή, μεγιστοποιώντας παράλληλα το ευρύ όφελος και την ενδυνάμωση, είναι τόσο σημαντική. Δεδομένων των δυνατοτήτων του έργου μας, η OpenAI δεν μπορεί να είναι μια κανονική εταιρεία. Πόσο τυχερό και ταπεινό είναι να μπορούμε να διαδραματίσουμε ρόλο σε αυτό το έργο.
Θα ήλπιζε κανείς ότι, καθώς η OpenAI προαναγγέλλει τη μετατόπιση της εστίασής της σε αυτό που θεωρεί υπερ-νοημοσύνη, η εταιρεία θα αφιέρωνε επαρκείς πόρους για να διασφαλίσει ότι τα υπερ-νοήμονα συστήματα συμπεριφέρονται με ασφάλεια.
Η OpenAI έχει αναφέρει αρκετές φορές ότι η επιτυχής μετάβαση σε έναν κόσμο με υπερ-νοημοσύνη δεν είναι καθόλου εγγυημένη και ότι δεν έχει όλες τις απαντήσεις.
«Δεν έχουμε μια λύση για την καθοδήγηση ή τον έλεγχο μιας δυνητικά υπερ-ευφυούς AI, και την αποτροπή της από το να γίνει αποστάτης», έγραψε η εταιρεία σε μια ανάρτηση στο blog τον Ιούλιο του 2023. «Οι άνθρωποι δεν θα είναι σε θέση να εποπτεύουν αξιόπιστα τα συστήματα Τεχνητής Νοημοσύνης που είναι πολύ πιο έξυπνα από εμάς, και έτσι οι τρέχουσες τεχνικές ευθυγράμμισης δεν θα κλιμακωθούν στην υπερ-νοημοσύνη».
Από εκείνη την ανάρτηση, ωστόσο, το OpenAI έχει διαλύσει ομάδες που επικεντρώνονταν στην ασφάλεια της AI, συμπεριλαμβανομένης της ασφάλειας των υπερ-ευφυών συστημάτων, και είδε αρκετούς ερευνητές με επιρροή που επικεντρώνονταν στην ασφάλεια να αποχωρούν. Αρκετοί από αυτούς τους υπαλλήλους ανέφεραν τις όλο και πιο εμπορικές φιλοδοξίες του OpenAI ως λόγο της αποχώρησής τους. Η εταιρεία υφίσταται επί του παρόντος εταιρική αναδιάρθρωση για να γίνει πιο ελκυστική για εξωτερικούς επενδυτές.
[via]