Ερευνητές του Penn Engineering φέρονται να έχουν ανακαλύψει προηγουμένως άγνωστα κενά ασφαλείας σε διάφορες ρομποτικές πλατφόρμες που ελέγχονται από Τεχνητή Νοημοσύνη.
«Η εργασία μας δείχνει ότι, αυτή τη στιγμή, τα μεγάλα γλωσσικά μοντέλα δεν είναι απλώς αρκετά ασφαλή όταν ενσωματώνονται με τον φυσικό κόσμο», δήλωσε ο Γιώργος Παππάς, καθηγητής του UPS Foundation Transportation. Ο Παππάς και η ομάδα του ανέπτυξαν έναν αλγόριθμο, που ονομάστηκε RoboPAIR, «ο πρώτος αλγόριθμος που σχεδιάστηκε για να ξεφύγει από τα LLM ελεγχόμενα ρομπότ». Και σε αντίθεση με τις υπάρχουσες επιθέσεις prompt engineering που στοχεύουν σε chatbots, ο RoboPAIR έχει κατασκευαστεί ειδικά για να «αποσπάσει επιβλαβείς φυσικές ενέργειες» από ρομπότ που ελέγχονται από LLM, όπως η δίποδη πλατφόρμα που αναπτύσσουν η Boston Dynamics και η TRI.
Το RoboPAIR φέρεται να πέτυχε ποσοστό επιτυχίας 100% στο jailbreaking τριών δημοφιλών ερευνητικών πλατφορμών ρομποτικής: το τετράποδο Unitree Go2, το τετράτροχο Clearpath Robotics Jackal και τον προσομοιωτή LLM Dolphins για αυτόνομα οχήματα. Χρειάστηκαν μόλις λίγες ημέρες για να αποκτήσει ο αλγόριθμος πλήρη πρόσβαση σε αυτά τα συστήματα και να αρχίσει να παρακάμπτει τις προστατευτικές δικλείδες ασφαλείας. Μόλις οι ερευνητές πήραν τον έλεγχο, μπόρεσαν να κατευθύνουν τις πλατφόρμες να προβούν σε επικίνδυνες ενέργειες, όπως να περάσουν από διαβάσεις δρόμων χωρίς να σταματήσουν.
«Τα αποτελέσματα μας αποκαλύπτουν, για πρώτη φορά, ότι οι κίνδυνοι από τα jailbroken LLMs επεκτείνονται πολύ πέρα από τη δημιουργία κειμένων, δεδομένου ότι υπάρχει η σαφής πιθανότητα τα jailbroken ρομπότ να προκαλέσουν σωματική βλάβη στον πραγματικό κόσμο», έγραψαν οι ερευνητές.
Οι ερευνητές του Penn συνεργάζονται με τους προγραμματιστές της πλατφόρμας για να ενισχύσουν τα συστήματa τους ενάντια σε περαιτέρω εισβολές, αλλά προειδοποιούν ότι αυτά τα ζητήματα ασφαλείας είναι συστημικά.
«Τα ευρήματα αυτής της εργασίας καθιστούν απολύτως σαφές ότι η προσέγγιση με γνώμονα την ασφάλεια είναι κρίσιμη για την απελευθέρωση της υπεύθυνης καινοτομίας», δήλωσε ο Vijay Kumar, ένας από τους συν-συγγραφείς του Πανεπιστημίου της Πενσυλβάνια, στην εφημερίδα The Independent. «Πρέπει να αντιμετωπίσουμε τα εγγενή τρωτά σημεία προτού αναπτύξουμε ρομπότ με Τεχνητή Νοημοσύνη στον πραγματικό κόσμο».
«Στην πραγματικότητα, το AI red teaming, μια πρακτική ασφάλειας που περιλαμβάνει τον έλεγχο των συστημάτων Τεχνητής Νοημοσύνης για πιθανές απειλές και τρωτά σημεία, είναι απαραίτητο για την προστασία των παραγωγικών συστημάτων AI», πρόσθεσε ο Alexander Robey, πρώτος συγγραφέας του άρθρου, «επειδή μόλις εντοπίσετε τις αδυναμίες, τότε μπορείτε να δοκιμάσετε και ακόμη και να εκπαιδεύσετε αυτά τα συστήματα για να τις αποφύγετε».
[via]
Οι χρήστες του Epic Games Store έχουν στη διάθεσή τους 24 ώρες για να αποκτήσουν…
Η χρήση ενέργειας των αμερικανικών κέντρων δεδομένων θα μπορούσε να τριπλασιαστεί σχεδόν μέχρι το 2028…
Το OpenAI αναβαθμίζει το πιο έξυπνο μοντέλο τεχνητής νοημοσύνης του με βελτιωμένες ικανότητες συλλογισμού -…
Ορισμένοι χρήστες του Spotify αντιμετωπίσαν ένα απροσδόκητο θέμα στη δημοφιλή πλατφόρμα streaming μουσικής, καθώς είδαν…
Με τη συμμετοχή του Πρωθυπουργού Κυριάκου Μητσοτάκη παρουσιάστηκε σήμερα από τον Υπουργό Ψηφιακής Διακυβέρνησης Δημήτρη…
Σύμφωνα με τους Financial Times, η Meta σχεδιάζει να αναπτύξει AI bots που θα μπορούν…
Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.
Leave a Comment