Νέο τρομακτικό AI «σκουλήκι» μπορεί να κλέψει αριθμούς τηλεφώνων και πιστωτικών καρτών – Eξαπλώνεται μόνο τους

υπολογιστής ιός hack

Ένα νέο εκλεπτυσμένο κακόβουλο λογισμικό τεχνητής νοημοσύνης (ΑΙ) έχει προκαλέσει τεράστια ανησυχία.

Οι δυνατότητες για μη ανιχνεύσιμες και ταχέως εξελισσόμενες κυβερνοεπιθέσεις αυξάνονται χάρη στη γενεσιουργό τεχνητή νοημοσύνη. Αυτό περιλαμβάνει την εξέλιξη συστημάτων τεχνητής νοημοσύνης όπως το ChatGPT της OpenAI και το Gemini της Google.

Το Gemini και το ChatGPT είναι προηγμένα μοντέλα εκμάθησης chatbot και γλώσσας. Μπορούν να κάνουν πράγματα όπως να γράφουν έκθεση, να παράγουν κώδικα και να απαντούν σε ερωτήσεις. Ωστόσο, μπορούν επίσης να χρησιμοποιηθούν για τη δημιουργία «AI σκουληκιών» που μπορούν να εξαπλωθούν από το ένα σύστημα στο άλλο, όπως διαπίστωσε νέα έρευνα, σύμφωνα με το Ars Technica.

Αυτά τα σκουλήκια μπορούν να υποκλέψουν τα δεδομένα των χρηστών ή να διασπείρει επικίνδυνο και διακριτικό κακόβουλο λογισμικό. Τα δεδομένα αυτά μπορεί να περιλαμβάνουν οτιδήποτε, από πληροφορίες πιστωτικών καρτών μέχρι ευαίσθητες φωτογραφίες και κείμενα.

«Αυτό ουσιαστικά σημαίνει ότι τώρα υπάρχει η δυνατότητα να διεξαχθεί ή να εκτελεσθεί ένα νέο είδος κυβερνοεπίθεσης που δεν έχει ξαναγίνει», δήλωσε στο Ars Technica ο ερευνητής του Cornell Tech, Ben Nassi, που βρίσκεται πίσω από την έρευνα.

Χάκερ Malware Ransomware ιός
πηγή: freepik.com

To AI σκουλήκι «Morris II»

Οι ερευνητές, με επικεφαλής τον Nassi, δημιούργησαν ένα σκουλήκι τεχνητής νοημοσύνης για να δείξουν πώς ακριβώς μπορεί να συμβεί αυτό.

Ονόμασαν το σκουλήκι «Morris II», ως φόρο τιμής στο διαβόητο σκουλήκι Morris του 1988, και περιέγραψαν λεπτομερώς τα ευρήματά τους σε ένα νέο ερευνητικό έγγραφο.

Η μελέτη αποκαλύπτει πώς το σκουλήκι τεχνητής νοημοσύνης μπορεί να εκμεταλλευτεί έναν γεννητικό AI βοηθό ηλεκτρονικού ταχυδρομείου για να κλέψει δεδομένα και να στείλει μηνύματα spam.

Μάλιστα, κατά τη διαδικασία αυτή, κατάφερε να παρακάμψει ορισμένα μέτρα ασφαλείας σε μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT και το Gemini.

Η έρευνα της ομάδας επικεντρώθηκε ειδικά στους βοηθούς ηλεκτρονικού ταχυδρομείου και απέφυγε να στοχεύσει σε δημόσια διαθέσιμα συστήματα.

Παρόλο που δεν έχουν αναφερθεί ακόμη περιπτώσεις “πραγματικού κόσμου” με γενετικά AI σκουλήκια, αρκετοί ερευνητές προειδοποιούν ότι αυτή η τεχνολογία ενέχει σημαντικό κίνδυνο για την ασφάλεια.

Και ο κίνδυνος αυξάνεται ακόμη περισσότερο όταν οι εφαρμογές αυτές συνδέονται με άλλο λογισμικό AI για την εκτέλεση εργασιών. Η ομάδα συνιστά στις νεοσύστατες επιχειρήσεις, τους προγραμματιστές και τις εταιρείες τεχνολογίας να αντιμετωπίσουν ενεργά τέτοιες ανησυχίες στο μέλλον.

Scroll to Top