Η Microsoft προειδοποιεί ότι χάκερ χρησιμοποιούν το ChatGPT για την βελτιώσουν τις επιθέσεις που πραγματοποιούν στον κυβερνοχώρο. Το ChatGPT, που κυκλοφόρησε από την OpenAI τον Νοέμβριο του 2022, μπορεί να ολοκληρώσει εργασίες όπως να απαντά σε προτροπές, να γράφει δοκίμια, ακόμη και να παράγει σύνθετο κώδικα σε δευτερόλεπτα.
Η Microsoft και η OpenAI προειδοποιούν ότι οι χάκερ χρησιμοποιούν το δημοφιλές chatbot για να γράψουν επικίνδυνα κείμενα και να δημιουργήσουν κακόβουλο λογισμικό.
«Οι ομάδες ηλεκτρονικού εγκλήματος και οι απειλητικοί παράγοντες εξερευνούν και δοκιμάζουν διαφορετικές τεχνολογίες τεχνητής νοημοσύνης, σε μια προσπάθεια να κατανοήσουν την πιθανή αξία για τις κακόβουλες επιχειρήσεις τους και τους ελέγχους ασφαλείας που μπορεί να χρειαστεί να παρακάμψουν» αναφέρει η Microsoft σε μία ανάρτηση στο blog της.
Η νέα έρευνα απέτρεψε πέντε κακόβουλους φορείς. Δύο από αυτούς ήταν απειλητικοί φορείς που συνδέονται με την Κίνα και είναι γνωστοί ως «Charcoal Typhoon» και «Salmon Typhoon».
Οι άλλοι περιλάμβαναν έναν χάκερ που συνδέεται με το Ιράν και είναι γνωστός ως «Crimson Sandstorm», έναν χάκερ που συνδέεται με τη Βόρεια Κορέα και είναι γνωστός ως «Emerald Sleet» και έναν χάκερ που συνδέεται με τη Ρωσία και είναι γνωστός ως «Forest Blizzard».
«Οι λογαριασμοί OpenAI που εντοπίστηκαν και σχετίζονται με αυτούς τους απειλητικούς τερματίστηκαν», ανέφερε η OpenAI.
Ενώ οι τεχνολογικοί γίγαντες τονίζουν ότι δεν έχουν ακόμη παρατηρήσει «ιδιαίτερα καινοτόμες ή μοναδικές επιθέσεις με χρήση AI», αποκάλυψαν κάποιες κοινές εργασίες που εκτελούνται κατά τη διάρκεια των κακόβουλων επιθέσεων.
Μία από τις πιο κοινές εργασίες περιλαμβάνει την αναγνώριση ή τη μάθηση σχετικά με τις εταιρείες, τις τοποθεσίες και τις σχέσεις των πιθανών θυμάτων. Άλλα καθήκοντα περιλαμβάνουν βοήθεια με την κωδικοποίηση και τη βοήθεια στην εκμάθηση και τη χρήση μητρικών γλωσσών.
«Η γλωσσική υποστήριξη είναι ένα φυσικό χαρακτηριστικό των LLM και είναι ελκυστική για τους απειλητικούς παράγοντες με συνεχή εστίαση στην κοινωνική μηχανική» αναφέρει η Microsoft. Άλλες τεχνικές που βασίζονται σε ψευδείς, παραπλανητικές επικοινωνίες είναι επίσης ελκυστικές για τους απειλητικούς παράγοντες.
Πώς θα αντιμετωπιστούν οι επιθέσεις με τεχνητή νοημοσύνη
Για να αντιμετωπιστούν οι επιθέσεις που δημιουργούνται από τεχνητή νοημοσύνη, η Microsoft πρότεινε τη χρήση της… τεχνητής νοημοσύνης.
«Η AI μπορεί να βοηθήσει τους επιτιθέμενους να φέρουν περισσότερη πολυπλοκότητα στις επιθέσεις τους», δήλωσε ο επικεφαλής διευθυντής ανάλυσης ανίχνευσης στη Microsoft, Homa Hayatyfar. «Το έχουμε δει αυτό σε πάνω από 300 απειλητικούς παράγοντες που παρακολουθεί η Microsoft, και χρησιμοποιούμε την AI για την προστασία, την ανίχνευση και την αντίδραση» πρόσθεσε.
Η Microsoft περιέγραψε διάφορες αρχές οι οποίες -όπως είπε- διαμορφώνουν την πολιτική και τις δράσεις της για τον μετριασμό των κινδύνων που σχετίζονται με τη χρήση των εργαλείων και των API της AI. Ορισμένες από αυτές τις αρχές περιλαμβάνουν τον εντοπισμό και τη λήψη μέτρων κατά της χρήσης από κακόβουλους φορείς απειλών, την ενημέρωση άλλων παρόχων υπηρεσιών AI και τη διαφάνεια.
Ο τεχνολογικός γίγαντας σημείωσε επίσης κοινές πρακτικές που μπορούν να βοηθήσουν, όπως η ενεργοποίηση του ελέγχου ταυτότητας πολλαπλών παραγόντων (MFA). «Αυτές είναι απαραίτητες επειδή οι επιτιθέμενοι μπορεί να χρησιμοποιήσουν εργαλεία που βασίζονται στην Τεχνητή Νοημοσύνη για να βελτιώσουν τις υπάρχουσες κυβερνοεπιθέσεις τους που βασίζονται στην κοινωνική μηχανική και στην εύρεση μη ασφαλών συσκευών και λογαριασμών», τόνισε η Microsoft.