Google: Νέα επίθεση με AI παραβιάζει λογαριασμούς Gmail – Το μήνυμα των ειδικών και τι μπορείτε να κάνετε τώρα

Google Chrome

Συνεχίζονται οι απειλές για το Gmail, καθώς όπως αποκαλύπτεται μία νέα επίθεση χρησιμοποιεί την τεχνητή νοημοσύνη για να παραβιάσει λογαριασμούς Gmail. Όπως τονίζει η ίδια η Google εξηγεί: «η απειλή αυτή δεν είναι αποκλειστική για τη Google», αλλά αναδεικνύει την ανάγκη για «ισχυρές άμυνες κατά των επιθέσεων prompt injection».

Οι επιθέσεις αυτές κρύβουν κακόβουλες εντολές σε φαινομενικά αθώα emails, μηνύματα, ιστοσελίδες, αρχεία και προσκλήσεις ημερολογίου – τις οποίες ο χρήστης δεν βλέπει, αλλά ο ψηφιακός βοηθός του (AI assistant) εκτελεί χωρίς ερωτήσεις.

Google: Το βίντεο που αποκάλυψε το κενό ασφαλείας

Ο ερευνητής ασφάλειας Eito Miyamura δημοσίευσε στο X (Twitter) βίντεο επίδειξης όπου χρησιμοποιείται μόνο η διεύθυνση email του θύματος για να αποκτηθεί πρόσβαση στα προσωπικά του δεδομένα μέσω ChatGPT. Όπως είπε:

«Οι AI πράκτορες όπως το ChatGPT υπακούν στις εντολές σας, όχι στη λογική σας. Μόνο με το email σας καταφέραμε να εξάγουμε όλα τα προσωπικά σας δεδομένα» αναφέρει.

Το κόλπο με την πρόσκληση ημερολογίου

Η επίθεση ξεκινά με μια κακόβουλη πρόσκληση ημερολογίου, χωρίς ο χρήστης να χρειαστεί καν να την αποδεχτεί. Αν ο AI βοηθός ερωτηθεί π.χ. να «προετοιμάσει το πρόγραμμα της ημέρας εξετάζοντας το ημερολόγιο», τότε οι κακόβουλες εντολές που βρίσκονται στην πρόσκληση ενεργοποιούνται — και το AI εκτελεί εντολές του χάκερ, όπως να αναζητήσει προσωπικά emails και να τα αποστείλει αλλού.

Η απάντηση της Google

Η Google υπενθυμίζει στους χρήστες να ενεργοποιήσουν τη ρύθμιση «μόνο γνωστοί αποστολείς» (known senders) στο Google Calendar, ώστε να αποτρέπεται η εμφάνιση ύποπτων προσκλήσεων.

Επιπλέον, δήλωσε:
«Τα μοντέλα Gemini 2.5 έχουν ενισχυμένη προστασία μέσω εκπαίδευσης με adversarial δεδομένα, αλλά η συγκεκριμένη επίθεση δεν χρησιμοποίησε το Gemini.»

Η εταιρεία προχωρά στην υλοποίηση νέων συστημάτων ανίχνευσης κακόβουλων εντολών μέσω μηχανικής μάθησης:

«Ένα email με κακόβουλες εντολές εντοπίζεται από τους ταξινομητές περιεχομένου μας, που αγνοούν τις επικίνδυνες εντολές και δημιουργούν μια ασφαλή απάντηση για τον χρήστη. Αυτό προστίθεται στις ήδη υπάρχουσες άμυνες του Gmail που μπλοκάρουν πάνω από 99,9% των phishing, spam και malware μηνυμάτων».

Το μήνυμα των ειδικών: Μην επαναπαύεστε

Ο Miyamura προειδοποιεί: «Η AI μπορεί να είναι πανέξυπνη, αλλά μπορεί να ξεγελαστεί με εξαιρετικά ανόητους τρόπους και να διαρρεύσει τα δεδομένα σας.»

Τι μπορείτε να κάνετε τώρα:

  • Ενεργοποιήστε τη ρύθμιση «μόνο γνωστοί αποστολείς» στο Google Calendar.
  • Αποφύγετε να δίνετε εντολές σε AI που εμπλέκουν έλεγχο email ή ημερολογίων χωρίς να ελέγχετε τις πηγές δεδομένων.
  • Να είστε ιδιαίτερα επιφυλακτικοί με άγνωστες προσκλήσεις, συνημμένα και links, ακόμη και αν φαίνονται ακίνδυνα.

Η ασφάλεια δεν αφορά μόνο την τεχνολογία – αφορά και την ανθρώπινη κρίση.

Scroll to Top