FOXreport.gr

Η OpenAI διορθώνει κενά ασφαλείας στο ChatGPT και το Codex: Κίνδυνος διαρροής δεδομένων και κλοπής κωδικών GitHub

Εικόνα: cybersecuritynews.com

Η OpenAI προχώρησε στην επιδιόρθωση δύο κρίσιμων ευπαθειών που θα μπορούσαν να επιτρέψουν την κρυφή εξαγωγή ευαίσθητων δεδομένων από συνομιλίες του ChatGPT, καθώς και την κλοπή διακριτικών πρόσβασης (tokens) του GitHub μέσω του εργαλείου Codex. Οι ανακαλύψεις αυτές, που δημοσιοποιήθηκαν από τις εταιρείες Check Point και BeyondTrust, υπογραμμίζουν τους νέους κινδύνους ασφαλείας στην εποχή της Τεχνητής Νοημοσύνης.

OpenAI: Εξαγωγή δεδομένων μέσω «κρυφών» καναλιών DNS

Σύμφωνα με την αναφορά της Check Point, μια ευπάθεια στο ChatGPT επέτρεπε την εξαγωγή μηνυμάτων, αρχείων και προσωπικών δεδομένων χωρίς τη συγκατάθεση του χρήστη. Ο επιτιθέμενος μπορούσε να χρησιμοποιήσει μια κακόβουλη εντολή (prompt) που εκμεταλλευόταν το περιβάλλον Linux του AI πράκτορα.

Το κενό ασφαλείας βασιζόταν σε ένα κρυφό κανάλι επικοινωνίας μέσω DNS. Καθώς το σύστημα θεωρούσε το περιβάλλον απομονωμένο, δεν αναγνώριζε τα αιτήματα DNS ως εξωτερική μεταφορά δεδομένων, παρακάμπτοντας όλες τις δικλείδες ασφαλείας. Η OpenAI διόρθωσε το πρόβλημα στις 20 Φεβρουαρίου 2026, ενώ δεν υπάρχουν στοιχεία ότι η ευπάθεια χρησιμοποιήθηκε για κακόβουλους σκοπούς.

Κλοπή διακριτικών GitHub μέσω του OpenAI Codex

Παράλληλα, η BeyondTrust εντόπισε μια κρίσιμη ευπάθεια «έγχυσης εντολών» (command injection) στο OpenAI Codex. Το πρόβλημα εντοπίστηκε στον τρόπο που το σύστημα επεξεργαζόταν τα ονόματα των κλάδων (branches) στο GitHub.

Η ευπάθεια επηρέαζε την ιστοσελίδα του ChatGPT, το Codex SDK και τις επεκτάσεις IDE. Η OpenAI εξέδωσε σχετική διόρθωση στις 5 Φεβρουαρίου 2026.

Ανάγκη για νέα αρχιτεκτονική ασφαλείας

Οι ειδικοί προειδοποιούν ότι οι οργανισμοί δεν πρέπει να θεωρούν τα εργαλεία AI ασφαλή «εκ κατασκευής». Ο Eli Smadja της Check Point τόνισε ότι καθώς οι πλατφόρμες AI εξελίσσονται σε πλήρη υπολογιστικά περιβάλλοντα που διαχειρίζονται ευαίσθητα δεδομένα, απαιτούνται ανεξάρτητα επίπεδα προστασίας και πλήρης ορατότητα στις αλληλεπιδράσεις χρηστών και AI.

Οι κίνδυνοι ενισχύονται και από κακόβουλες επεκτάσεις περιηγητών που προσπαθούν να «υποκλέψουν» συνομιλίες, καθιστώντας απαραίτητη την αυστηρή επιτήρηση των εργαλείων που χρησιμοποιούν οι εργαζόμενοι σε εταιρικά περιβάλλοντα.

Exit mobile version