Categories: Apple

Σημαντικό κενό ασφαλείας στα AI robots θα μπορούσε να θέσει σε κίνδυνο τις ζωές μας


Ερευνητές του Penn Engineering φέρονται να έχουν ανακαλύψει προηγουμένως άγνωστα κενά ασφαλείας σε διάφορες ρομποτικές πλατφόρμες που ελέγχονται από Τεχνητή Νοημοσύνη.

«Η εργασία μας δείχνει ότι, αυτή τη στιγμή, τα μεγάλα γλωσσικά μοντέλα δεν είναι απλώς αρκετά ασφαλή όταν ενσωματώνονται με τον φυσικό κόσμο», δήλωσε ο Γιώργος Παππάς, καθηγητής του UPS Foundation Transportation. Ο Παππάς και η ομάδα του ανέπτυξαν έναν αλγόριθμο, που ονομάστηκε RoboPAIR, «ο πρώτος αλγόριθμος που σχεδιάστηκε για να ξεφύγει από τα LLM ελεγχόμενα ρομπότ». Και σε αντίθεση με τις υπάρχουσες επιθέσεις prompt engineering που στοχεύουν σε chatbots, ο RoboPAIR έχει κατασκευαστεί ειδικά για να «αποσπάσει επιβλαβείς φυσικές ενέργειες» από ρομπότ που ελέγχονται από LLM, όπως η δίποδη πλατφόρμα που αναπτύσσουν η Boston Dynamics και η TRI.

Το RoboPAIR φέρεται να πέτυχε ποσοστό επιτυχίας 100% στο jailbreaking τριών δημοφιλών ερευνητικών πλατφορμών ρομποτικής: το τετράποδο Unitree Go2, το τετράτροχο Clearpath Robotics Jackal και τον προσομοιωτή LLM Dolphins για αυτόνομα οχήματα. Χρειάστηκαν μόλις λίγες ημέρες για να αποκτήσει ο αλγόριθμος πλήρη πρόσβαση σε αυτά τα συστήματα και να αρχίσει να παρακάμπτει τις προστατευτικές δικλείδες ασφαλείας. Μόλις οι ερευνητές πήραν τον έλεγχο, μπόρεσαν να κατευθύνουν τις πλατφόρμες να προβούν σε επικίνδυνες ενέργειες, όπως να περάσουν από διαβάσεις δρόμων χωρίς να σταματήσουν.

«Τα αποτελέσματα μας αποκαλύπτουν, για πρώτη φορά, ότι οι κίνδυνοι από τα jailbroken LLMs επεκτείνονται πολύ πέρα από τη δημιουργία κειμένων, δεδομένου ότι υπάρχει η σαφής πιθανότητα τα jailbroken ρομπότ να προκαλέσουν σωματική βλάβη στον πραγματικό κόσμο», έγραψαν οι ερευνητές.

Οι ερευνητές του Penn συνεργάζονται με τους προγραμματιστές της πλατφόρμας για να ενισχύσουν τα συστήματa τους ενάντια σε περαιτέρω εισβολές, αλλά προειδοποιούν ότι αυτά τα ζητήματα ασφαλείας είναι συστημικά.

«Τα ευρήματα αυτής της εργασίας καθιστούν απολύτως σαφές ότι η προσέγγιση με γνώμονα την ασφάλεια είναι κρίσιμη για την απελευθέρωση της υπεύθυνης καινοτομίας», δήλωσε ο Vijay Kumar, ένας από τους συν-συγγραφείς του Πανεπιστημίου της Πενσυλβάνια, στην εφημερίδα The Independent. «Πρέπει να αντιμετωπίσουμε τα εγγενή τρωτά σημεία προτού αναπτύξουμε ρομπότ με Τεχνητή Νοημοσύνη στον πραγματικό κόσμο».

«Στην πραγματικότητα, το AI red teaming, μια πρακτική ασφάλειας που περιλαμβάνει τον έλεγχο των συστημάτων Τεχνητής Νοημοσύνης για πιθανές απειλές και τρωτά σημεία, είναι απαραίτητο για την προστασία των παραγωγικών συστημάτων AI», πρόσθεσε ο Alexander Robey, πρώτος συγγραφέας του άρθρου, «επειδή μόλις εντοπίσετε τις αδυναμίες, τότε μπορείτε να δοκιμάσετε και ακόμη και να εκπαιδεύσετε αυτά τα συστήματα για να τις αποφύγετε».

[via]



Πηγή

iTech News

Leave a Comment
Share
Published by
iTech News

Recent Posts

Το 2024 κλείνει με δωρεάν παιχνιδάρα από το Epic Games Store!

Οι χρήστες του Epic Games Store έχουν στη διάθεσή τους 24 ώρες για να αποκτήσουν…

10 ώρες ago

Η χρήση ενέργειας των αμερικανικών κέντρων δεδομένων θα μπορούσε να τριπλασιαστεί σχεδόν μέχρι το 2028

Η χρήση ενέργειας των αμερικανικών κέντρων δεδομένων θα μπορούσε να τριπλασιαστεί σχεδόν μέχρι το 2028…

10 ώρες ago

Το OpenAI αναβαθμίζει το πιο έξυπνο μοντέλο τεχνητής νοημοσύνης του με βελτιωμένες ικανότητες συλλογισμού

Το OpenAI αναβαθμίζει το πιο έξυπνο μοντέλο τεχνητής νοημοσύνης του με βελτιωμένες ικανότητες συλλογισμού -…

11 ώρες ago

Πορνογραφικά videos εμφανίστηκαν στις αναζητήσεις και τις συστάσεις του Spotify

Ορισμένοι χρήστες του Spotify αντιμετωπίσαν ένα απροσδόκητο θέμα στη δημοφιλή πλατφόρμα streaming μουσικής, καθώς είδαν…

20 ώρες ago

Kids Wallet και Parco για την προστασία των ανηλίκων από τον Εθισμό στο Διαδίκτυο

Με τη συμμετοχή του Πρωθυπουργού Κυριάκου Μητσοτάκη παρουσιάστηκε σήμερα από τον Υπουργό Ψηφιακής Διακυβέρνησης Δημήτρη…

20 ώρες ago

Η Meta σκοπεύει να γεμίσει το Facebook με προφίλ από AI bots!

Σύμφωνα με τους Financial Times, η Meta σχεδιάζει να αναπτύξει AI bots που θα μπορούν…

1 ημέρα ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.