Categories: Apple

Σημαντικό κενό ασφαλείας στα AI robots θα μπορούσε να θέσει σε κίνδυνο τις ζωές μας


Ερευνητές του Penn Engineering φέρονται να έχουν ανακαλύψει προηγουμένως άγνωστα κενά ασφαλείας σε διάφορες ρομποτικές πλατφόρμες που ελέγχονται από Τεχνητή Νοημοσύνη.

«Η εργασία μας δείχνει ότι, αυτή τη στιγμή, τα μεγάλα γλωσσικά μοντέλα δεν είναι απλώς αρκετά ασφαλή όταν ενσωματώνονται με τον φυσικό κόσμο», δήλωσε ο Γιώργος Παππάς, καθηγητής του UPS Foundation Transportation. Ο Παππάς και η ομάδα του ανέπτυξαν έναν αλγόριθμο, που ονομάστηκε RoboPAIR, «ο πρώτος αλγόριθμος που σχεδιάστηκε για να ξεφύγει από τα LLM ελεγχόμενα ρομπότ». Και σε αντίθεση με τις υπάρχουσες επιθέσεις prompt engineering που στοχεύουν σε chatbots, ο RoboPAIR έχει κατασκευαστεί ειδικά για να «αποσπάσει επιβλαβείς φυσικές ενέργειες» από ρομπότ που ελέγχονται από LLM, όπως η δίποδη πλατφόρμα που αναπτύσσουν η Boston Dynamics και η TRI.

Το RoboPAIR φέρεται να πέτυχε ποσοστό επιτυχίας 100% στο jailbreaking τριών δημοφιλών ερευνητικών πλατφορμών ρομποτικής: το τετράποδο Unitree Go2, το τετράτροχο Clearpath Robotics Jackal και τον προσομοιωτή LLM Dolphins για αυτόνομα οχήματα. Χρειάστηκαν μόλις λίγες ημέρες για να αποκτήσει ο αλγόριθμος πλήρη πρόσβαση σε αυτά τα συστήματα και να αρχίσει να παρακάμπτει τις προστατευτικές δικλείδες ασφαλείας. Μόλις οι ερευνητές πήραν τον έλεγχο, μπόρεσαν να κατευθύνουν τις πλατφόρμες να προβούν σε επικίνδυνες ενέργειες, όπως να περάσουν από διαβάσεις δρόμων χωρίς να σταματήσουν.

«Τα αποτελέσματα μας αποκαλύπτουν, για πρώτη φορά, ότι οι κίνδυνοι από τα jailbroken LLMs επεκτείνονται πολύ πέρα από τη δημιουργία κειμένων, δεδομένου ότι υπάρχει η σαφής πιθανότητα τα jailbroken ρομπότ να προκαλέσουν σωματική βλάβη στον πραγματικό κόσμο», έγραψαν οι ερευνητές.

Οι ερευνητές του Penn συνεργάζονται με τους προγραμματιστές της πλατφόρμας για να ενισχύσουν τα συστήματa τους ενάντια σε περαιτέρω εισβολές, αλλά προειδοποιούν ότι αυτά τα ζητήματα ασφαλείας είναι συστημικά.

«Τα ευρήματα αυτής της εργασίας καθιστούν απολύτως σαφές ότι η προσέγγιση με γνώμονα την ασφάλεια είναι κρίσιμη για την απελευθέρωση της υπεύθυνης καινοτομίας», δήλωσε ο Vijay Kumar, ένας από τους συν-συγγραφείς του Πανεπιστημίου της Πενσυλβάνια, στην εφημερίδα The Independent. «Πρέπει να αντιμετωπίσουμε τα εγγενή τρωτά σημεία προτού αναπτύξουμε ρομπότ με Τεχνητή Νοημοσύνη στον πραγματικό κόσμο».

«Στην πραγματικότητα, το AI red teaming, μια πρακτική ασφάλειας που περιλαμβάνει τον έλεγχο των συστημάτων Τεχνητής Νοημοσύνης για πιθανές απειλές και τρωτά σημεία, είναι απαραίτητο για την προστασία των παραγωγικών συστημάτων AI», πρόσθεσε ο Alexander Robey, πρώτος συγγραφέας του άρθρου, «επειδή μόλις εντοπίσετε τις αδυναμίες, τότε μπορείτε να δοκιμάσετε και ακόμη και να εκπαιδεύσετε αυτά τα συστήματα για να τις αποφύγετε».

[via]



Πηγή

iTech News

Leave a Comment
Share
Published by
iTech News

Recent Posts

Η Ιαπωνία έστειλε τον πρώτο ξύλινο δορυφόρο στο Διάστημα!

Ιάπωνες ερευνητές μόλις έστειλαν τον πρώτο ξύλινο δορυφόρο στον κόσμο στο Διάστημα, όπως αναφέρει το…

4 ώρες ago

Ξεπέρασε τα 146 εκατ. πωλήσεις, δεν αλλάζουν τα σχέδια για το Switch 2

Σύμφωνα με τα τελευταία οικονομικά αποτελέσματα της Nintendo, το Nintendo Switch παρουσιάζει μια μικρή πτώση…

11 ώρες ago

Σημαντική ανακάλυψη για το περίφημο Πρόβλημα των Τριών Σωμάτων

Το πρόβλημα των τριών σωμάτων είναι ένα από τα πιο δημοφιλή στον τομέα της Αστρονομίας,…

11 ώρες ago

Η AstroForge έλαβε την πρώτη άδεια εξόρυξης πολύτιμων μετάλλων από αστεροειδείς

Η εταιρεία αναζήτησης αστεροειδών AstroForge απέκτησε την πρώτη εμπορική άδεια λειτουργίας και επικοινωνίας με ένα…

12 ώρες ago

Games, εφαρμογές και ιστοσελίδες μπορούν να γίνουν απειλές για την ασφάλεια μας

Τα smartphones έχουν γίνει αναπόσπαστο μέρος της ζωής μας. Από τα παιδιά, τους εφήβους, τους…

12 ώρες ago

Ιστορικό επίτευγμα: Το πρώτο κλωνοποιημένο κουνάβι γέννησε δύο υγιή μωρά

Ιστορικό επίτευγμα: Το πρώτο κλωνοποιημένο κουνάβι γέννησε δύο υγιή μωρά - Newsbeast play …

12 ώρες ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.