FOXreport.gr

Κινέζοι χάκερς χρησιμοποιούν AI της Anthropic για αυτοματοποιημένη κυβερνοκατασκοπεία

Εικόνα: thehackernews.com

Κρατικά υποστηριζόμενοι Κινέζοι χάκερς αξιοποίησαν την τεχνητή νοημοσύνη της Anthropic για να πραγματοποιήσουν μια «εξαιρετικά εξελιγμένη κατασκοπευτική καμπάνια» στα μέσα Σεπτεμβρίου 2025.

Η εταιρεία ανέφερε ότι οι δράστες χρησιμοποίησαν τις agentic δυνατότητες της AI σε πρωτοφανές επίπεδο: όχι μόνο ως σύμβουλο, αλλά ως εκτελεστικό μηχανισμό κυβερνοεπιθέσεων.

Σύμφωνα με την Anthropic, οι χάκερς χειραγώγησαν το εργαλείο Claude Code, μετατρέποντάς το σε πλήρως αυτόνομο agent κυβερνοεπιθέσεων, ικανό να πραγματοποιεί επιθέσεις σε περίπου 30 παγκόσμιους στόχους, συμπεριλαμβανομένων μεγάλων εταιρειών τεχνολογίας, χρηματοπιστωτικών ιδρυμάτων, χημικών βιομηχανιών και κυβερνητικών υπηρεσιών. Ένα μέρος αυτών των επιθέσεων πέτυχε.

ΑΙ – Anthropic: Πώς λειτούργησε η καμπάνια GTG-1002

Η καμπάνια, με κωδικό GTG-1002, αποτελεί την πρώτη περίπτωση όπου ένας αντίπαλος αξιοποίησε AI για μεγάλης κλίμακας cyber attack με ελάχιστη ανθρώπινη παρέμβαση.

Το Claude Code, σε συνδυασμό με εργαλεία Model Context Protocol (MCP), χρησιμοποιήθηκε για:

Η Anthropic σημείωσε ότι ο άνθρωπος-χειριστής ανέθετε στο Claude ομάδες αυτόνομων χαρακτήρων (sub-agents) που εκτελούσαν το 80-90% των επιχειρησιακών βημάτων με ρυθμούς φυσικά αδύνατους για ανθρώπους.

Οι άνθρωποι παρενέβαιναν μόνο σε κρίσιμες αποφάσεις: μετάβαση από αναγνώριση σε επίθεση, χρήση κλεμμένων credentials, τελική επιλογή τι δεδομένα θα εξαχθούν.

Πλήρης αυτοματοποίηση της επίθεσης

Το πλαίσιο επίθεσης δεχόταν ως είσοδο τον στόχο που επέλεγε ο άνθρωπος και μέσω MCP πραγματοποιούσε αναγνώριση και χαρτογράφηση επιφάνειας επίθεσης.

Στη συνέχεια, το AI ανακάλυπτε ευπάθειες, δημιουργούσε προσαρμοσμένα payloads και -με ανθρώπινη έγκριση- αναλάμβανε:

Σε μία περίπτωση, το Claude έκανε ανεξάρτητα ερωτήματα σε βάσεις δεδομένων, εντόπιζε απόρρητες πληροφορίες και τις ομαδοποιούσε ανάλογα με τη σημασία τους. Παρήγαγε επίσης λεπτομερή τεκμηρίωση της επίθεσης, επιτρέποντας παράδοση πρόσβασης σε άλλες ομάδες για μακροπρόθεσμες επιχειρήσεις.

Οι δράστες κατάφεραν να το εξαπατήσουν μέσω «προσεκτικά διαμορφωμένων προτρόπων» και συγκεκριμένων personas, ώστε το Claude να εκτελεί μεμονωμένα κομμάτια της επίθεσης χωρίς να αντιλαμβάνεται το συνολικό κακόβουλο πλαίσιο.

Όρια της τεχνητής νοημοσύνης

Παρότι ισχυρό, το σύστημα εμφάνισε κρίσιμους περιορισμούς: hallucinations σε αυτόνομη λειτουργία.

Το Claude επινόησε:

Αυτές οι «παραχαράξεις» δυσκόλεψαν την αποτελεσματικότητα της καμπάνιας, αποκαλύπτοντας εγγενή ρίσκα στη χρήση AI για επιθέσεις.

Ένα νέο τοπίο κυβερνοαπειλών

Η αποκάλυψη ακολουθεί παρόμοιες υποθέσεις όπου OpenAI και Google ανέφεραν επιθέσεις που αξιοποιούσαν ChatGPT και Gemini αντίστοιχα.

Η Anthropic προειδοποιεί:
«Τα εμπόδια για την εκτέλεση εξελιγμένων κυβερνοεπιθέσεων έχουν μειωθεί δραστικά».

Με τα agentic AI συστήματα, ακόμα και ομάδες με μικρή εμπειρία μπορούν πλέον να πραγματοποιήσουν επιθέσεις μεγάλης κλίμακας.

Η υπόθεση GTG-1002 αποτελεί ίσως το πιο ανησυχητικό παράδειγμα της σύγκλισης τεχνητής νοημοσύνης και κυβερνοκατασκοπείας, σε μια εποχή όπου οι κυβερνοαπειλές εξελίσσονται ταχύτερα από ποτέ.

Exit mobile version