Η υπηρεσία Digital Footprint Intelligence της Kaspersky έχει εντοπίσει σχεδόν 3.000 δημοσιεύσεις στο dark web που συζητούν κυρίως τη χρήση του ChatGPT και άλλων LLMs για παράνομες δραστηριότητες. Οι δράστες αναζητούν τρόπους εξαπάτησης, από τη δημιουργία κακόβουλων εναλλακτικών λύσεων του chatbot μέχρι jailbreaking του πρωτότυπου και όχι μόνο. Οι κλεμμένοι λογαριασμοί ChatGPT και οι υπηρεσίες που προσφέρουν τη μαζική αυτοματοποιημένη δημιουργία τους κατακλύζουν και τα κανάλια του dark web, φτάνοντας τις επιπλέον 3.000 αναρτήσεις.
Το 2023, η υπηρεσία Kaspersky Digital Footprint Intelligence ανακάλυψε σχεδόν 3.000 αναρτήσεις στο dark web, που συζητούσαν τη χρήση του ChatGPT για παράνομους σκοπούς ή μιλούσαν για εργαλεία που βασίζονται σε τεχνολογίες AI. Παρόλο που οι συνομιλίες κορυφώθηκαν τον Μάρτιο, οι συζητήσεις συνεχίζονται.
«Οι δράστες αναζητούν συνεχώς διάφορους τρόπους για την εφαρμογή του ChatGPT και του AI. Οι συζητήσεις περιλαμβάνουν συχνά την ανάπτυξη κακόβουλου λογισμικού και άλλους τύπους παράνομης χρήσης γλωσσικών μοντέλων, όπως η επεξεργασία κλεμμένων δεδομένων χρηστών, η ανάλυση αρχείων από μολυσμένες συσκευές και όχι μόνο. Η δημοτικότητα των εργαλείων AI έχει οδηγήσει στην ενσωμάτωση αυτοματοποιημένων απαντήσεων από το ChatGPT ή ομοιά του σε ορισμένα φόρουμ κυβερνοεγκληματιών. Επιπλέον, οι δράστες τείνουν να μοιράζονται jailbreaks μέσω διαφόρων καναλιών στο dark web – ειδικά σύνολα προτροπών που μπορούν να ξεκλειδώσουν πρόσθετες λειτουργίες – και επινοούν τρόπους εκμετάλλευσης νόμιμων εργαλείων, όπως αυτά για pentesting, βασισμένα σε μοντέλα για κακόβουλους σκοπούς», εξήγησε η Alisa Kulishenko, digital footprint analyst at Kaspersky.
Εκτός από τα chatbot και το ΑΙ που αναφέρθηκαν, σημαντική προσοχή δίνεται σε έργα όπως το XXXGPT, το FraudGPT και άλλα. Αυτά τα γλωσσικά μοντέλα προωθούνται στο dark web ως εναλλακτικές λύσεις του ChatGPT, διαθέτοντας επιπλέον λειτουργίες και χωρίς τους αρχικούς περιορισμούς.
Μια ακόμη απειλή για τους χρήστες και τις εταιρείες είναι η αγορά λογαριασμών για την επί πληρωμή έκδοση του ChatGPT. Το 2023, εντοπίστηκαν άλλες 3.000 αναρτήσεις (εκτός από τις προαναφερόμενες) που διαφήμιζαν λογαριασμούς ChatGPT προς πώληση σε όλο το dark web και σε κρυφά κανάλια Telegram. Αυτές οι αναρτήσεις είτε μοιράζουν κλεμμένους λογαριασμούς είτε προωθούν υπηρεσίες αυτόματης εγγραφής που δημιουργούν μαζικά λογαριασμούς ύστερα από αίτημα. Αξίζει να σημειωθεί ότι συγκεκριμένες αναρτήσεις επαναδημοσιεύθηκαν σε πολλά κανάλια του dark web.
«Ενώ τα ίδια τα εργαλεία AI δεν είναι από μόνα τους επικίνδυνα, οι κυβερνοεγκληματίες προσπαθούν να βρουν αποτελεσματικούς τρόπους χρήσης των γλωσσικών μοντέλων, τροφοδοτώντας έτσι μια τάση μείωσης του περιορισμού της πρόσβασης στο κυβερνοέγκλημα και, σε ορισμένες περιπτώσεις, πιθανώς αύξησης των κυβερνοεπιθέσεων. Ωστόσο, είναι απίθανο ότι το generative AI και τα chatbots θα φέρουν επανάσταση στον χώρο των επιθέσεων – τουλάχιστον το 2024. Ο αυτοματοποιημένος χαρακτήρας των κυβερνοεπιθέσεων συχνά σημαίνει αυτοματοποιημένες άμυνες. Παρ’ όλα αυτά, η ενημέρωση για τις δραστηριότητες των κυβερνοεγκληματιών είναι σημαντική για να είμαστε προετοιμασμένοι σχετικά με την εταιρική κυβερνοασφάλεια», αναφέρει η Alisa Kulishenko, digital footprint analyst at Kaspersky.
Η λεπτομερής έρευνα παρουσιάζεται στην επίσημη ιστοσελίδα του Kaspersky Digital Footprint Intelligence. Για να αποφύγετε τις απειλές που σχετίζονται με τις δραστηριότητες των κυβερνοεγκληματιών στο επικίνδυνο κομμάτι του διαδικτύου, μπορείτε να εφαρμόσετε τα ακόλουθα μέτρα ασφαλείας:
Η MSI παρουσίασε στο CES 2025 τις καινοτόμες κάρτες γραφικών NVIDIA GeForce RTX 50 Series,…
Οι ψηφιακές πληρωμές αυξάνονται παγκοσμίως καθώς οι αγορές μέσα από ιστοτόπους, εφαρμογές ή πλατφόρμες καταστημάτων…
Η Samsung Electronics Co., Ltd. παρουσίασε, στο πλαίσιο της CES 2025 που διεξάγεται από τις…
Η POCO παρουσίασε σήμερα τα νέα POCO X7 Pro, POCO X7 και το μοναδικό POCO…
Η HMD επιστρέφει στην επικαιρότητα με κάτι διαφορετικό αυτή τη φορά. Αντί για ένα νέο…
Οι άνθρωποι που παλεύουν με ορμονικές καταστάσεις και άλλες ασθένειες που σχετίζονται με αυτές πρέπει…
Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.
Leave a Comment