Το διαχειριστής κωδικών πρόσβασης του Google Chrome παραβιάστηκε από νέα επίθεση με AI – Τι είναι το «Code Jailbreak»

Google Chrome

Η αύξηση των επιθέσεων από infostealer malware φαίνεται να μην έχει τέλος. Με 2,1 δισεκατομμύρια κωδικούς πρόσβασης να έχουν παραβιαστεί από αυτήν την επικίνδυνη απειλή, 85 εκατομμύρια νέοι κωδικοί που χρησιμοποιούνται σε συνεχιζόμενες επιθέσεις και εργαλεία που καταφέρνουν να παρακάμψουν την ασφάλεια του προγράμματος περιήγησης σε 10 δευτερόλεπτα, είναι δύσκολο να αγνοηθεί η σοβαρότητα της κατάστασης.

Ωστόσο, τα πράγματα φαίνεται να γίνονται ακόμα χειρότερα, καθώς νέες έρευνες αποκαλύπτουν πώς οι χάκερς μπορούν να χρησιμοποιήσουν μια τεχνική jailbreak μέσω μεγάλων γλωσσικών μοντέλων (LLM), γνωστή ως «immersive world attack», για να δημιουργήσουν τα infostealer malware με τη βοήθεια της τεχνητής νοημοσύνης.

Δημιουργία Infostealer με AI – Χωρίς γνώσεις κωδικοποίησης

Ένας ερευνητής στον τομέα της ανίχνευσης απειλών, χωρίς καμία εμπειρία στη δημιουργία κακόβουλου λογισμικού, κατάφερε να παρακάμψει πολλαπλά μεγάλα γλωσσικά μοντέλα και να καθοδηγήσει την AI ώστε να δημιουργήσει ένα πλήρως λειτουργικό, εξαιρετικά επικίνδυνο infostealer που στοχεύει να παραβιάσει ευαίσθητες πληροφορίες από τον διαχειριστή κωδικών πρόσβασης του Google Chrome.

Αυτός είναι ο τρομακτικός απολογισμός από την τελευταία αναφορά απειλών της Cato Networks, που δημοσιεύθηκε στις 18 Μαρτίου. Η ανησυχητική αυτή επίθεση κατάφερε να παρακάμψει τις προστασίες που είναι ενσωματωμένες στα μεγάλα γλωσσικά μοντέλα, τα οποία έχουν σχεδιαστεί για να αποτρέπουν ακριβώς αυτήν την κακόβουλη συμπεριφορά, με τη χρήση μιας τεχνικής που είναι γνωστή ως immersive world jailbreak.

Ο ερευνητής Vitaly Simonovich της Cato Networks δήλωσε:

«Η νέα τεχνική jailbreak LLM, την οποία ανακαλύψαμε και ονομάσαμε Immersive World, αποδεικνύει το επικίνδυνο δυναμικό της δημιουργίας ενός infostealer με ευκολία»

Η επίθεση Immersive World AI

Όπως εξηγούν οι ερευνητές της Cato Networks, μια επίθεση τύπου immersive world περιλαμβάνει τη χρήση της «μηχανικής αφήγησης» για να παρακάμψει τα παραπάνω προστατευτικά μέτρα ασφαλείας των LLM. Αυτό απαιτεί τη δημιουργία ενός ιδιαίτερα λεπτομερούς, αλλά εντελώς φανταστικού κόσμου από τον επιτιθέμενο και την ανάθεση ρόλων μέσα σε αυτόν τον κόσμο στο LLM για να ομαλοποιηθούν λειτουργίες που κανονικά θα περιορίζονταν.

Ο ερευνητής κατάφερε να κάνει τρία διαφορετικά εργαλεία AI να αναλάβουν ρόλους, με κάθε εργαλείο να αναλαμβάνει συγκεκριμένες αποστολές και προκλήσεις.

Το αποτέλεσμα, όπως επισημαίνεται στην αναφορά της Cato Networks, ήταν κακόβουλος κώδικας που κατάφερε να εξάγει κωδικούς πρόσβασης από τον διαχειριστή κωδικών του Google Chrome.

«Αυτό επικυρώνει τόσο την τεχνική Immersive World όσο και τη λειτουργικότητα του παραγόμενου κώδικα», ανέφεραν οι ερευνητές.

Αντίδραση από τις εταιρείες τεχνητής νοημοσύνης

Η Cato Networks ανέφερε ότι επικοινώνησε με όλα τα εργαλεία AI που εμπλέκονταν, με το DeepSeek να μην ανταποκρίνεται, ενώ η Microsoft και η OpenAI αναγνώρισαν την απειλή. Η Google επίσης αναγνώρισε την απειλή, αλλά αρνήθηκε να εξετάσει τον κώδικα.

Νέες έρευνες και προειδοποιήσεις

Η νέα έρευνα από τη Zscaler, η οποία περιλαμβάνεται στην έκθεση ThreatLabz 2025 για την ασφάλεια AI που δημοσιεύθηκε στις 20 Μαρτίου, αποκαλύπτει με δραματικό τρόπο πόσο επικίνδυνο είναι το τοπίο της τεχνητής νοημοσύνης. Με την ανάπτυξη της χρήσης εργαλείων AI από επιχειρήσεις να σημειώνει αύξηση 3.000% χρόνο με το χρόνο, η Zscaler προειδοποίησε για την ανάγκη λήψης μέτρων ασφαλείας καθώς αυτές οι τεχνολογίες υιοθετούνται με ραγδαίο ρυθμό σε σχεδόν κάθε βιομηχανία.

Όπως ανέφερε ο Deepen Desai, διευθυντής ασφαλείας της Zscaler, «καθώς η τεχνητή νοημοσύνη μετασχηματίζει τις βιομηχανίες, δημιουργεί επίσης νέες και απρόβλεπτες προκλήσεις ασφαλείας».

Scroll to Top