Ακόμη πιο επικίνδυνα και εξελιγμένα θα γίνουν το 2024 τα οπτικά και φωνητικά deepfakes, προειδοποιούν οι ειδικοί. Πέρυσι παρατηρήθηκε αύξηση των περιστατικών με απατεώνες που δημιουργούν deepfake φωτογραφίες και βίντεο χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης.
Γνωστή ως deepfake, αυτή η τεχνολογία χρησιμοποιείται για την αναπαραγωγή των φωνών και των προσώπων ανυποψίαστων θυμάτων. Είναι μια νέα τακτική που ακολουθούν οι κυβερνοεγκληματίες για την κλοπή χρημάτων από τα θύματά τους. Μάλιστα, το Παγκόσμιο Οικονομικό Φόρουμ (WEF) εκτιμά ότι τα deepfakes αυξάνονται με ετήσιο ρυθμό 900%.
Πώς λειτουργούν τα deepfakes
Οι επιτήδειοι εντοπίζουν πρώτα έναν στόχο και μετά βρίσκουν ένα σύντομο ηχητικό ή βίντεο κλιπ της φωνής τους στα μέσα κοινωνικής δικτύωσης. Στη συνέχεια, δημιουργούν έναν κλώνο φωνής αυτού του ατόμου και καλούν την οικογένεια, τους φίλους ή τους συναδέλφους τους για να τους μιμηθούν. Ανάλογα με τον τελικό τους στόχο, ο απατεώνας μπορεί να ζητήσει χρήματα ή να προσπαθήσει να συγκεντρώσει προσωπικές πληροφορίες.
Τι μπορεί να συμβεί
Όσο άσχημα κι αν είναι τα προαναφερθέντα εγκλήματα, αυτή είναι μόνο η κορυφή του παγόβουνου όσον αφορά στο τι μπορούμε να περιμένουμε το 2024, σύμφωνα με τον Ryan Toohil, CTO της εταιρείας κυβερνοασφάλειας Aura. Ο ίδιος πιστεύει ότι η γενετική τεχνητή νοημοσύνη θα κάνει και τις social engineering απάτες στα διαδικτυακά παιχνίδια πιο εξελιγμένες, επίσης.
Οι απατεώνες θα δημιουργήσουν καλύτερα deep fakes και θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για να μιμηθούν περισσότερες παιδικές συνομιλίες χρησιμοποιώντας τις φωνές των παιδιών για να στοχεύσουν νεότερα θύματα, εξήγησε ο Toohil. Ευτυχώς, ο ειδικός πιστεύει ότι αυτό θα ωθήσει τους νομοθέτες να δημιουργήσουν ένα αυστηρό ρυθμιστικό πλαίσιο για την επικίνδυνη τεχνολογία AI.
«Οι εταιρείες θα λογοδοτήσουν επίσης για το περιεχόμενο που εμφανίζεται στις διαφημίσεις παιχνιδιών», πρόσθεσε. Για να μην πέσε θύματα deepfakes, διαβάστε μερικές συμβουλές παρακάτω.
Deepfake red flags
Όπως συμβαίνει με πολλές άλλες απάτες, ένας από τους μεγαλύτερους δείκτες είναι κάποιος που χρησιμοποιεί μία επείγουσα γλώσσα για να σας κάνει να κάνετε κάτι. Οι απατεώνες συχνά χρησιμοποιούν επείγουσα γλώσσα για να σας αποσπάσουν την προσοχή από τη λογική σκέψη και να σας κάνουν να ενεργήσετε γρήγορα χωρίς να σκεφτείτε. Μπορεί να χρησιμοποιούν λέξεις και φράσεις όπως “επείγον”, “τώρα”, “μην χάσετε αυτή την ευκαιρία”, “η προσφορά λήγει σύντομα” ή “πρέπει να ενεργήσετε τώρα”.
Κάποιος που ζητά χρήματα, αγαθά ή οικονομική βοήθεια μέσω τηλεφώνου δεν είναι επίσης ποτέ καλό σημάδι.
Ομοίως, εάν μια ηχογράφηση φωνής ακούγεται ύποπτα καλής ποιότητας, μπορεί να είναι ψεύτικη.
Πώς να μείνετε ασφαλείς
Δεν υπάρχουν τρόποι για να προστατευτείτε πλήρως από τα deepfakes, αλλά υπάρχουν κάποιες συμβουλές που μπορείτε να ακολουθήσετε.
Μπορείτε να αναφέρετε τυχόν deepfakes στις αρμόδιες αρχές, καθώς και να περιορίσετε τον αριθμό των αναρτήσεων που δημοσιεύετε για τον εαυτό σας στο διαδίκτυο.
Συνιστάται επίσης να διατηρείτε ιδιωτικούς τους λογαριασμούς σας στα μέσα κοινωνικής δικτύωσης και να δέχεστε ως φίλους ή ακόλουθους μόνο άτομα που γνωρίζετε και εμπιστεύεστε.