Έχει πάψει πλέον να είναι πρωτοσέλιδο το να χακάρει κανείς κάποιον· έχει γίνει τόσο συνηθισμένο, που δεν προκαλεί καν έκπληξη στους περισσότερους ανθρώπους. Το θέμα αποκτά προσοχή μόνο όταν η επίθεση αφορά μια μεγάλη εταιρεία και επηρεάζει εκατομμύρια άτομα. Υπάρχουν τόσοι πολλοί τρόποι να εκτεθεί κάποιος, που σχεδόν κάθε είδος ψηφιακής υπηρεσίας ή προϊόντος διαθέτει μηχανισμούς προστασίας για να το αποτρέψει.
Φυσικά, αυτά τα προϊόντα δεν είναι τέλεια και πάντα θα υπάρχουν τρόποι να περάσει μια κακόβουλη επίθεση αν ο επιτιθέμενος είναι αρκετά ευφυής. Με την άνοδο των LLMs όπως το Gemini, υπάρχει πάντα η πιθανότητα αυτά τα εργαλεία τεχνητής νοημοσύνης να χρησιμοποιηθούν για κακόβουλους σκοπούς. Αν και δεν έχει αναφερθεί ακόμη κάτι μεγάλης κλίμακας, το Wired παρουσίασε ένα ερευνητικό έργο που χρησιμοποιεί το Gemini για να αποκτήσει πρόσβαση στη ζωή σας με τρόπους που δεν θα φανταζόσασταν ποτέ.
Κάτι τέτοιο θα μπορούσε να γίνει πιο επικίνδυνο
Οι Ben Nassi, Stav Cohen και Or Yair από το Πανεπιστήμιο του Τελ Αβίβ παρουσίασαν το έργο τους «Invitation Is All You Need», που χρησιμοποιεί το Gemini για να αποκτήσει πρόσβαση σε ένα έξυπνο σπίτι και να το ελέγξει. Το ενδιαφέρον είναι ότι η διαδικασία δεν ξεκινά από κάτι μέσα στο σπίτι σας, αλλά βασίζεται σε ένα άσχετο προϊόν της Google για να ενεργοποιήσει τη δράση.
Απλά ειπωμένο, μια ανεπιθύμητη ενέργεια ενεργοποιείται όταν ο χρήστης χρησιμοποιεί το Gemini με ένα prompt. Το έξυπνο σε όλο αυτό είναι ότι η ενέργεια αυτή παραμένει σε λανθάνουσα κατάσταση και δεν μπορεί να τη δει ο χρήστης. Η ερευνητική ομάδα εξηγεί ότι αυτό λειτουργεί με «promptware» που αξιοποιεί ένα LLM για να εκτελέσει κακόβουλες δραστηριότητες.
Χρησιμοποιώντας «short-term context poisoning» και «long-term memory poisoning», οι ερευνητές διαπίστωσαν ότι μπορούσαν να κάνουν το Gemini να εκτελέσει ενέργειες που δεν υπήρχαν αρχικά στο prompt. Αυτό θα μπορούσε να οδηγήσει σε διαγραφή γεγονότων από διάφορες εφαρμογές της Google, άνοιγμα κλήσης Zoom, αποστολή τοποθεσίας χρήστη, έλεγχο προϊόντων έξυπνου σπιτιού και άλλα.
Τα LLMs ως εργαλεία
Η ερευνητική ομάδα παρουσιάζει μάλιστα σε εκπαιδευτικά βίντεο πώς λειτουργεί όλο αυτό, και το αποτέλεσμα είναι εντυπωσιακό. Είναι ένας απλός και αποτελεσματικός τρόπος να προκαλέσεις χάος στη ζωή κάποιου χωρίς να το καταλάβει. Επειδή οι άνθρωποι είναι πιο προσηλωμένοι στους παραδοσιακούς τρόπους χακαρίσματος, κάτι τέτοιο μπορεί να τους πιάσει εντελώς απροετοίμαστους.
Ευτυχώς, η ερευνητική ομάδα ανέφερε αυτά τα ζητήματα στην Google τον Φεβρουάριο και μάλιστα συναντήθηκε με την ομάδα της για να τα διορθώσουν. Η Google ανέφερε ότι «έθεσε σε εφαρμογή πολλαπλές πολυεπίπεδες άμυνες, όπως: βελτιωμένες επιβεβαιώσεις χρήστη για ευαίσθητες ενέργειες, ισχυρό χειρισμό URL με απολύμανση και Trust Level Policies, καθώς και προηγμένο εντοπισμό prompt injection χρησιμοποιώντας content classifiers».
Το έργο ρίχνει φως σε «θεωρητικές τεχνικές έμμεσης έγχυσης prompt που επηρεάζουν βοηθούς με LLM», κάτι που θα μπορούσε να γίνει πιο συνηθισμένο στο μέλλον καθώς τα εργαλεία τεχνητής νοημοσύνης γίνονται πιο περίπλοκα. Βρισκόμαστε ακόμη στην αρχή, και θα χρειαστεί καλύτερη παρακολούθηση για να αποφευχθούν σοβαρότερες ζημιές στο μέλλον.
Αν σας ενδιαφέρουν οι ευπάθειες, μπορείτε πάντα να υποβάλετε ό,τι βρίσκετε στην Google μέσω του προγράμματος Bug Hunters. Υπάρχουν πολλοί τρόποι να συνεισφέρετε, με την τεχνητή νοημοσύνη να αποτελεί μόνο ένα μικρό τμήμα όσων παρακολουθούνται αυτή τη στιγμή. Αν κάτι είναι πιο σοβαρό, η Google προσφέρει ακόμη και ανταμοιβή για την εργασία σας, καθιστώντας την προσπάθεια ακόμη πιο ελκυστική.