Δύο χρόνια περιθώριο για την θανάσιμη απειλή της Τενητής Νοημοσύνης δίνει σύμβουλος του Βρετανού Πρωθυπουργού.
Ο Ματ Κλίφορντ, σύμβουλος AI του Ρίσι Σούνακ, προειδοποιεί για τις απειλές βιολογικών όπλων και κυβερνοεπιθέσεων, σε βάθος δύο χρόνων καθώς τα συστήματα τεχνητής νοημοσύνης θα μπορούν να είναι αρκετά ισχυρά ώστε να «σκοτώσουν πολλούς ανθρώπους»
Ο Κλίφορντ, ο οποίος βοηθά τον Βρετανό πρωθυπουργό να συγκροτήσει την κυβερνητική ομάδα εργασίας για την τεχνητή νοημοσύνη, δήλωσε ότι οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να είναι προετοιμασμένοι για απειλές που κυμαίνονται από κυβερνοεπιθέσεις έως τη δημιουργία βιολογικών όπλων, εάν η ανθρωπότητα δεν βρει τρόπο να ελέγξει την τεχνολογία.
«Μπορείτε να έχετε πραγματικά πολύ επικίνδυνες απειλές για τους ανθρώπους που θα μπορούσαν να σκοτώσουν πολλούς ανθρώπους», είπε μιλώντας στο TalkTV.
Μεσοπρόθεσμα, οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τον σχεδιασμό χημικών και βιολογικών όπλων και τη διεξαγωγή μαζικών επιθέσεων μέσω του διαδικτύου, αναφέρει το σημοσίευμα των βρετανικών Times.
Την περασμένη εβδομάδα μια δήλωση που υπογράφηκε από 350 ειδικούς σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένου του διευθύνοντος συμβούλου τoυ OpenAI, το οποίο ανέπτυξε το ChatGPT, προειδοποίησε ότι υπάρχει επίσης ο κίνδυνος μακροπρόθεσμα η τεχνολογία να οδηγήσει στην εξαφάνιση της ανθρωπότητας.
Ο Κλίφορντ, δήλωσε ότι αποτελεί πραγματική ανησυχία και είναι ένας από τους λόγους για τους οποίους οι χώρες πρέπει να συνεργαστούν για τη δημιουργία κανονισμών.
«Το είδος του υπαρξιακού κινδύνου για το οποίο νομίζω ότι μιλούσαν οι συγγραφείς της επιστολής είναι … τι θα συμβεί όταν δημιουργήσουμε ουσιαστικά ένα νέο είδος, ξέρετε, μια νοημοσύνη που είναι μεγαλύτερη από τους ανθρώπους», είπε, προσθέτοντας ότι σε μια «αισιόδοξη» χρονική κλίμακα θα μπορούσαμε να έχουμε έναν υπολογιστή πιο έξυπνο από τον άνθρωπο μέσα σε δύο χρόνια.
«Αν προσπαθήσουμε να δημιουργήσουμε τεχνητή νοημοσύνη που είναι πιο έξυπνη από τον άνθρωπο και δεν ξέρουμε πώς να την ελέγξουμε, τότε αυτό θα δημιουργήσει ένα ενδεχόμενο για κάθε είδους κινδύνους τώρα και στο μέλλον … είναι σωστό να είναι πολύ ψηλά στην ατζέντα των φορέων χάραξης πολιτικής.
Αυτό που τον ανησυχεί στην παρούσα κατάσταση, είπε, είναι ότι «οι άνθρωποι που κατασκευάζουν τα πιο ικανά συστήματα παραδέχονται ανοιχτά ότι δεν κατανοούν ακριβώς πώς παρουσιάζουν τις συμπεριφορές που παρουσιάζου»
Ωστόσο, ο Κλίφορντ δήλωσε ότι η Τεχνητή Νοημοσύνη έχει επίσης τη δυνατότητα να αποτελέσει μια συντριπτική δύναμη για το καλό – υπό την προϋπόθεση ότι θα βρούμε τρόπους να την ελέγξουμε. «Αν όλα πάνε καλά… μπορείτε να φανταστείτε την Τεχνητή Νοημοσύνη να θεραπεύει ασθένειες, να κάνει την οικονομία πιο παραγωγική, να μας βοηθά να φτάσουμε σε μια οικονομία ουδέτερου άνθρακα».
Οι παγκόσμιες ρυθμιστικές αρχές προσπαθούν να αντιμετωπίσουν την τεχνολογία που κινείται με ταχύτατους ρυθμούς. Τόσο ο Λευκός Οίκος όσο και η Ντάουνινγκ Στριτ συγκάλεσαν συνόδους κορυφής των ηγετών στον τομέα του AI τις τελευταίες εβδομάδες για να βρουν μια πορεία προς τα εμπρός.
Οι ρυθμιστικές αρχές της Ευρώπης και των ΗΠΑ συναντήθηκαν αυτή την εβδομάδα στη Σουηδία για να βρουν κάποιο κοινό έδαφος για έναν εθελοντικό κώδικα δεοντολογίας για τις εταιρείες τεχνητής νοημοσύνης, παρά τις ενδείξεις ότι έχουν διαφορές στην προσέγγισή τους.
Οι Βρυξέλλες προχωρούν με τον νόμο για την τεχνητή νοημοσύνη, ο οποίος θα χαρακτηρίζει ορισμένους τύπους της τεχνολογίας ως υψηλού ή χαμηλού κινδύνου. Τόσο οι ΗΠΑ όσο και το Ηνωμένο Βασίλειο επιθυμούν να αναπτύξουν προσεγγίσεις που δεν βλάπτουν την καινοτομία, αλλά ο Σουνάκ έχει δηλώσει πρόσφατα ότι η Βρετανία μπορεί να υιοθετήσει μια πιο παρεμβατική προσέγγιση από ό,τι είχε αρχικά υποδείξει σε πρόσφατη λευκή βίβλο.
Καθώς οι προειδοποιήσεις από ορισμένες πλευρές της βιομηχανίας τεχνητής νοημοσύνης γίνονται πιο ηχηρές και πιο ακραίες, ορισμένοι στον τομέα πιστεύουν ότι ο συναγερμός μπορεί να κρύβει συμφέροντα. Ο Αρβίντ Ναραγιανάν, καθηγητής πληροφορικής στο Princeton, έγραψε την περασμένη εβδομάδα: «Η ιστορία της τεχνολογίας μέχρι σήμερα δείχνει ότι οι μεγαλύτεροι κίνδυνοι δεν προέρχονται από την ίδια την τεχνολογία, αλλά από τους ανθρώπους που ελέγχουν την τεχνολογία και τη χρησιμοποιούν για να συσσωρεύσουν δύναμη και πλούτο».
Άλλοι πιστεύουν ότι οι φωνές διακεκριμένων επιστημόνων πληροφορικής, όπως ο Τζόφρι Χίντον και ο Γιόσουα Μπέντζιο, δύο από τους «νονούς» της τεχνητής νοημοσύνης που προειδοποίησαν πρόσφατα για τις απειλές της τεχνολογίας, αντιμετωπίζονται ως «ήρωες επιστήμονες» αλλά πολλοί έχουν επιφυλάξεις.
Ο Αζίμ Αζάρ, ειδικός της βιομηχανίας στην ερευνητική ομάδα Exponential View, δήλωσε σε ενημερωτικό δελτίο: «Το γεγονός ότι οι άνθρωποι είναι ειδικοί στον πυρήνα της έρευνας των νευρωνικών δικτύων δεν τους καθιστά σπουδαίους προγνώστες, ειδικά όταν πρόκειται για κοινωνικά ζητήματα ή ζητήματα της οικονομίας ή ζητήματα γεωπολιτικής».
Επεσήμανε ότι ο Χίντον προειδοποίησε το 2016 ότι οι ακτινολόγοι θα μπορούσαν να καταστούν παρωχημένοι από την τεχνητή νοημοσύνη – αλλά η πραγματικότητα είναι ότι εξακολουθούν να υπάρχουν ελλείψεις ακτινολόγων παγκοσμίως.
ΠΕΡΙΣΣΟΤΕΡΑ ΒΙΝΤΕΟ
Πέντε ολόκληρα χρόνια μετά την κυκλοφορία του Death Stranding στο PlayStation, οι παίκτες του Xbox…
Το Disney+, αποκάλυψε το νέο trailer και poster, της νέας σειράς της Lucasfilm, Star Wars: Skeleton…
Υπάρχει ένας σοβαρός λόγος που εξηγεί γιατί δεν έχουμε ακόμη αντιδραστήρες πυρηνικής σύντηξης ικανούς να…
Η SEGA δουλεύει πάνω σε ένα νέο παιχνίδι Virtua Fighter για πρώτη φορά από το…
Η ομάδα Παγκόσμιας Έρευνας και Ανάλυσης της Kaspersky (GReAT) αποκάλυψε μια κακόβουλη παγκόσμια εκστρατεία, στην…
Με την άνοδο της τεχνητής νοημοσύνης, μια νέα μελέτη από ερευνητές του MIT εξέτασε ποιες εργασίες θα μπορούσαν…
Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.
Leave a Comment