Επικίνδυνες απάτες με Deepfake: «Δημιουργήστε ένα συνθηματικό» – Πώς θα αποφύγετε κλήσεις με κλωνοποιημένες φωνές

Ιδιαίτερα προσεκτικοί θα πρέπει να είναι ιδιοκτήτες smartphones με τις fake κλήσεις που χρησιμοποιούν τεχνητή νοημοσύνη για να μιμούνται γνωστές φωνές.

Σύμφωνα με πρόσφατη ανάρτηση της Keeper Security, οι κυβερνοεγκληματίες χρησιμοποιούν την τεχνητή νοημοσύνη για να εξαπατήσουν τα θύματά τους ώστε να αποκαλύψουν προσωπικά στοιχεία.

Αυτή η τεχνολογία κλωνοποίησης, γνωστή ως deepfakes, λειτουργεί αναπαράγοντας τις φωνές φίλων, συγγενών ακόμη και εκπροσώπων εξυπηρέτησης πελατών.

Πώς λειτουργούν οι απάτες με φωνή που δημιουργείται με ΑΙ

Οι απάτες με φωνή που δημιουργείται με AI βασίζονται σε μια διαδικασία που περιλαμβάνει δύο βήματα: κλωνοποίηση φωνής και κοινωνική μηχανική.

Πρώτον, οι απατεώνες αποκτούν ένα δείγμα της φωνής του αγαπημένου προσώπου του στόχου τους. Αυτό μπορεί να γίνει με διάφορα μέσα, όπως η εγγραφή μιας τηλεφωνικής συνομιλίας, η εξαγωγή ήχου από δημοσιεύσεις στα μέσα κοινωνικής δικτύωσης ή ακόμα και η σύνθεση ομιλίας από μηνύματα κειμένου.

Με αυτό το δείγμα φωνής στα χέρια τους, οι απατεώνες χρησιμοποιούν τεχνολογία κλωνοποίησης φωνής AI για να δημιουργήσουν ένα σχεδόν τέλειο αντίγραφο.

Αυτό οφείλεται στην τεχνολογία deepfake, η οποία μπορεί να αναλύσει τον τόνο της φωνής, τον ρυθμό και ακόμη και τους συναισθηματικούς τόνους.

Μόλις κλωνοποιηθεί η φωνή, οι επιτήδειοι ξεκινούν την επίθεση κοινωνικής μηχανικής. Καλούν τον στόχο και χρησιμοποιούν την κλωνοποιημένη φωνή για να δημιουργήσουν εμπιστοσύνη και να προκαλέσουν συμπάθεια.

Σε ορισμένες περιπτώσεις, ο απατεώνας μπορεί να ισχυριστεί ότι είναι μέλος της οικογένειας που βρίσκεται σε κακή οικονομική κατάσταση και χρειάζεται χρήματα για κάποιο επείγον ζήτημα.

Στις απάτες deepfake με θύματα ηλικιωμένους, οι κακοποιοί φτάνουν στο σημείο να προσποιηθούν ότι είναι εγγόνι τους που έχει συλληφθεί και λέει ότι χρειάζεται χρήματα για να πληρώσει την εγγύηση.

Μπορεί να χρησιμοποιήσουν λεπτομέρειες που έχουν συλλεχθεί από προφίλ κοινωνικών μέσων ή προηγούμενες συνομιλίες για να κάνουν την πλαστοπροσωπία τους ακόμα πιο πιστευτή.

Πώς να παραμείνετε ασφαλείς

Ενώ οι απάτες με φωνή AI αποτελούν μια περίπλοκη απειλή, υπάρχουν μέτρα που μπορείτε να λάβετε για να προστατευτείτε.

  • Το πρώτο πράγμα που μπορείτε να κάνετε είναι να είστε επιφυλακτικοί με απρόσμενες κλήσεις, καθώς οι απατεώνες εκμεταλλεύονται συχνά το στοιχείο του αιφνιδιασμού.
  • Εάν λάβετε μια κλήση από άγνωστο αριθμό ή από έναν γνωστό αριθμό με μια περίεργη ιστορία, να είστε προσεκτικοί. Δεν πρέπει να υποθέσετε ότι μια κλήση είναι κανονική μόνο και μόνο επειδή η φωνή ακούγεται σαν κάποιον που γνωρίζετε.
  • Επιπλέον, εάν λάβετε κλήση από κάποιον που ισχυρίζεται ότι είναι από μια εταιρεία ή οργανισμό, κλείστε το τηλέφωνο και καλέστε τους πίσω σε έναν αριθμό που γνωρίζετε ότι είναι αληθινός. Μην βασίζεστε στην αναγνώριση κλήσεων, καθώς οι απατεώνες μπορούν να πλαστογραφήσουν αριθμούς τηλεφώνου.
  • Η δημιουργία μιας ασφαλούς λέξης με την οικογένεια και τους φίλους μπορεί επίσης να είναι ωφέλιμη, σημειώνει η Keeper Security. Ο καθορισμός ενός μυστικού κωδικού ή φράσης με τους αγαπημένους σας μπορεί να χρησιμοποιηθεί για την επαλήθευση της ταυτότητας σας κατά τη διάρκεια ύποπτων κλήσεων. Εάν κάποιος που ισχυρίζεται ότι είναι μέλος της οικογένειας ή φίλος σας δεν μπορεί να απαντήσει σωστά και να πει αυτή τη λέξη ασφαλείας, αυτό είναι σημάδι ότι κάτι δεν πάει καλά.

 

 

 

Scroll to Top