Οι εγκληματίες του κυβερνοχώρου μπορούν να κατασκοπεύουν τις συνομιλίες των χρηστών με chatbots που λειτουργούν με τεχνητή νοημοσύνη, προειδοποιούν οι ειδικοί. Από τότε που το ChatGPT κυκλοφόρησε τον Νοέμβριο του 2022, οι ειδικοί σε θέματα κυβερνοασφάλειας ανησυχούν για την νέα αυτή τεχνολογία.
Το ChatGPT είναι ένα προηγμένο chatbot που μπορεί να ολοκληρώσει απρόσκοπτα εργασίες όπως η συγγραφή δοκιμίων και η δημιουργία κώδικα σε δευτερόλεπτα. Σήμερα, πολλά chatbots λειτουργούν όπως το ChatGPT, συμπεριλαμβανομένου του Gemini της Google και του Copilot της Microsoft στο πλαίσιο του Bing.
Τα chatbots είναι εύκολα στη χρήση και πολλοί χρήστες γοητεύονται γρήγορα σε συζητήσεις με τους συντρόφους φυσικής γλώσσας. Ωστόσο, οι ειδικοί έχουν εκφράσει ανησυχίες σχετικά με την ανταλλαγή προσωπικών πληροφοριών των χρηστών με τα AI chatbots.
Το ChatGPT μπορεί να συλλέξει εξαιρετικά ευαίσθητες λεπτομέρειες που μοιράζονται οι χρήστες μέσω των προτροπών και των απαντήσεων. Στη συνέχεια, μπορεί να συσχετίσει αυτές τις πληροφορίες με τη διεύθυνση ηλεκτρονικού ταχυδρομείου και τον αριθμό τηλεφώνου ενός χρήστη και να τις αποθηκεύσει.
Αυτό συμβαίνει επειδή για να χρησιμοποιήσουν την πλατφόρμα, οι χρήστες πρέπει να παρέχουν τόσο μια διεύθυνση ηλεκτρονικού ταχυδρομείου όσο και έναν αριθμό κινητού τηλεφώνου. Οι χρήστες δεν μπορούν να το παρακάμψουν αυτό χρησιμοποιώντας email μιας χρήσης ή κρυφά email και αριθμούς τηλεφώνου.
Ως αποτέλεσμα, το ChatGPT είναι σταθερά συνδεδεμένο με την ηλεκτρονική σας ταυτότητα, καθώς καταγράφει όλα όσα εισάγετε. Επιπλέον, αυτά τα προσωπικά δεδομένα μπορούν επίσης να αποκτηθούν από εγκληματίες του κυβερνοχώρου, αν είναι αρκετά πρόθυμοι.
Επίθεση πλευρικού καναλιού
«Επί του παρόντος, οποιοσδήποτε μπορεί να διαβάσει τις ιδιωτικές συνομιλίες που αποστέλλονται από το ChatGPT και άλλες υπηρεσίες», δήλωσε ο επικεφαλής του Offensive AI Research Lab στο Πανεπιστήμιο Ben-Gurion του Ισραήλ, Yisroel Mirsky. «Αυτό περιλαμβάνει κακόβουλους φορείς στο ίδιο Wi-Fi ή LAN με έναν πελάτη (π.χ. στην ίδια καφετέρια), ή ακόμη και έναν κακόβουλο φορέα στο διαδίκτυο – οποιονδήποτε μπορεί να παρατηρήσει την κίνηση».
Αυτό είναι γνωστό ως “επίθεση πλευρικού καναλιού” και μπορεί να είναι πολύ επικίνδυνο για τα θύματα.
«Η επίθεση είναι παθητική και μπορεί να συμβεί χωρίς να το γνωρίζει η OpenAI ή ο πελάτης της», αποκάλυψε ο Mirsky. «Η OpenAI κρυπτογραφεί την κίνησή του για να αποτρέψει τέτοιου είδους επιθέσεις υποκλοπής, αλλά η έρευνά μας δείχνει ότι ο τρόπος με τον οποίο η εταιρεία χρησιμοποιεί την κρυπτογράφηση είναι ελαττωματικός και έτσι το περιεχόμενο των μηνυμάτων εκτίθεται».
Πώς να προστατευτείτε
Για να είστε ασφαλείς από επιθέσεις όπως αυτή, οι ειδικοί συνιστούν στους χρήστες να είναι πολύ προσεκτικοί σχετικά με τις πληροφορίες που εισάγουν σε ένα AI chatbot.
Πρέπει επίσης να είναι προσεκτικοί με το γεγονός ότι, ακόμη και αν οι εταιρείες τεχνητής νοημοσύνης δεν μοιράζονται τις προσωπικές τους πληροφορίες, οι χάκερ μπορούν να έχουν πρόσβαση σε αυτές.
Εν τω μεταξύ, η OpenAI στις Συχνές Ερωτήσεις της συμβουλεύει τα εκατομμύρια των καθημερινών χρηστών της να μην μοιράζονται «οποιαδήποτε ευαίσθητη πληροφορία στη συνομιλία τους με το ChatGPT».