Φαντάζεστε πώς θα έμοιαζαν ο Μπιλ Γκέιτς ή ο Τραμπ πάμπτωχοι; Η τεχνητή νοημοσύνη απαντά [εικόνες]
Ψήφο εμπιστοσύνης στις δυνατότητες της τεχνητής νοημοσύνης δίνει ο Μπιλ Γκέιτς, υποστηρίζοντας ότι μοντέλα όπως το ChatGPT αποτελούν τη σημαντικότερη πρόοδο στην τεχνολογία μετά τη δημιουργία του προσωπικού υπολογιστή.
Η ανάδυση της τεχνητής νοημοσύνης μπορεί να προκαλέσει προβλήματα, όπως τα deepfakes, οι παραποιημένοι αλγόριθμοι και η αντιγραφή στα σχολεία λέει ο συνιδρυτής της Microsoft, αλλά θεωρεί ότι όλα αυτά είναι επιλύσιμα.
«Απ’ όσα έχουν γραφτεί ως τώρα – και έχουν γραφτεί πολλά – για τους κινδύνους της τεχνητής νοημοσύνης ένα πράγμα είναι σαφές, ότι ουδείς έχει όλες τις απαντήσεις», έγραψε ο Γκέιτς σε ανάρτησή του σε ιστολόγιο προ ημερών. «Κι ένα άλλο πράγμα, που είναι σαφές για μένα είναι ότι το μέλλον της τεχνητής νοημοσύνης δεν είναι τόσο ζοφερό όσο κάποιοι πιστεύουν, ούτε τόσο ρόδινο, όσο άλλοι θεωρούν».
Η
μετριοπαθής άποψη του Γκέιτς αναφορικά
με τους κινδύνους που απορρέουν από την
τεχνητή νοημοσύνη θα μπορούσε να
μετατοπίσει τη συζήτηση γύρω από την
τεχνολογία αυτή μακριά από τα σενάρια
καταστροφής προς μιας πιο περιορισμένη
ρύθμιση που θα αντιμετωπίζει τους
κινδύνους, την ώρα που κυβερνήσεις ανά
την υφήλιο πασχίζουν να βρουν λύσεις,
σχολιάζει το CNBC.
Ο Γκέιτς είναι από τις πιο σημαντικές φωνές που ακούγονται για την τεχνητή νοημοσύνη, η οποία, όπως προβλέπε,ι θα επιφέρει μεγάλες ανατροπές στο εγγύς μέλλον, ενώ ο ίδιος διατηρεί στενούς δεσμούς με τη Microsoft, που έχει επενδύσει στην OpenAI και έχει ενσωματώσει το ChatGPT σε βασικά της προϊόντα, όπως το Office.
Ο Γκέιτς έχει εξηγήσει από τον περασμένο Μάρτιο γιατί η τεχνητή νοημοσύνη θα είναι τόσο σημαντική όσο το κινητό και το Ίντερνετ και στην πρόσφατη ανάρτησή του σημειώνει ότι όπως προσαρμόστηκαν οι άνθρωποι σε μεγάλες αλλαγές στο παρελθόν το ίδιο θα κάνουν και τώρα. «Για παράδειγμα [η τεχνητή νοημοσύνη] θα έχει μεγάλη επίπτωση στην εκπαίδευση, αλλά το ίδιο έκαναν και οι φορητές αριθμομηχανές πριν από μερικές δεκαετίες και πιο πρόσφατα η χρήση ηλεκτρονικών υπολογιστών στις σχολικές τάξεις», λέει.
Η εποχή της τεχνητής νοημοσύνης έχει ξεκινήσει κατά τον Γκέιτς και η ρύθμιση, που χρειάζεται η τεχνολογία αυτή, είναι «όρια ταχύτητας και ζώνες ασφαλείας».
«Λίγο
μετά την εμφάνιση των πρώτων αυτοκινήτων
στους δρόμους, έγινε το πρώτο αυτοκινητιστικό
δυστύχημα. Αλλά δεν απαγορέψαμε τα
αυτοκίνητα – βάλαμε όρια ταχύτητας,
υιοθετήσαμε πρότυπα ασφαλείας, κανόνες
για την άδεια οδήγησης, νόμους για την
οδήγηση υπό την επήρεια μέθης και άλλους
κανόνες», έγραψε.
Εκείνο
που ανησυχεί τον Γκέιτς είναι κάποιες
από τις προκλήσεις που θα προκύψουν από
την υιοθέτηση της τεχνολογίας αυτής,
όπως το πώς θα αλλάξει πιθανώς τις
δουλειές των ανθρώπων, ή η τάση μοντέλων,
όπως το
ChatGPT να
επινοούν γεγονότα, κείμενα και ανθρώπους.
Αναφέρει ως παράδειγμα τα
deepfakes, που
χρησιμοποιούν μοντέλα τεχνητής νοημοσύνης
επιτρέποντας σε κάποιους να φτιάχνουν
ψεύτικα βίντεο, που θα μπορούσαν να
χρησιμοποιηθούν για να εξαπατήσουν
ανθρώπους ή να αλλοιώσουν εκλογικά
αποτελέσματα, όπως γράφει.
Ταυτόχρονα, όμως, θεωρεί ότι οι άνθρωποι θα βελτιωθούν ως προς τον εντοπισμό των deepfakes και αναφέρει τους σχετικούς ανιχνευτές που αναπτύσσουν η Ιntel και η DARPA στις ΗΠΑ. Μια άλλη πηγή ανησυχίας για τον Γκέιτς είναι η ικανότητα της τεχνητής νοημοσύνης να αναζητά κενά σε λογισμικά, που χρειάζονται για το χακάρισμα ηλεκτρονικών υπολογιστών και προτείνει να συσταθεί μια ρυθμιστική Αρχή στα πρότυπα της Διεθνούς Υπηρεσίας Ατομικής Ενέργειας.
ΠΕΡΙΣΣΟΤΕΡΑ ΒΙΝΤΕΟ
«Κόφτη» στα social media για κάτω των 15 ετών; – Οριζόντια απαγόρευση εξετάζει η κυβέρνηση…
Επιτέλους, μετά από μεγάλη αναμονή, μάθαμε τι ετοιμάζει η Naughty Dog, η εταιρεία ανάπτυξης του…
Το OpenAI κυκλοφορεί το Sora, το δημοφιλές εργαλείο δημιουργίας βίντεο AI - Newsbeast play …
Ένας πρώην υπάλληλος της OpenAI, ο Suchir Balaji, βρέθηκε πρόσφατα νεκρός στο διαμέρισμα του στο…
Ίσως πρέπει να το σκεφτείτε δύο φορές πριν αποφασίσετε τι θα φάτε στο επόμενο γεύμα…
Η Google παρουσιάζει την επόμενη γενιά τεχνητής νοημοσύνης με το Gemini 2.0 - Newsbeast play…
Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.
Leave a Comment