FOXreport.gr

Επικίνδυνες απάτες με Deepfake: «Δημιουργήστε ένα συνθηματικό» – Πώς θα αποφύγετε κλήσεις με κλωνοποιημένες φωνές

Anna Shvets/ Pexels

Ιδιαίτερα προσεκτικοί θα πρέπει να είναι ιδιοκτήτες smartphones με τις fake κλήσεις που χρησιμοποιούν τεχνητή νοημοσύνη για να μιμούνται γνωστές φωνές.

Σύμφωνα με πρόσφατη ανάρτηση της Keeper Security, οι κυβερνοεγκληματίες χρησιμοποιούν την τεχνητή νοημοσύνη για να εξαπατήσουν τα θύματά τους ώστε να αποκαλύψουν προσωπικά στοιχεία.

Αυτή η τεχνολογία κλωνοποίησης, γνωστή ως deepfakes, λειτουργεί αναπαράγοντας τις φωνές φίλων, συγγενών ακόμη και εκπροσώπων εξυπηρέτησης πελατών.

Πώς λειτουργούν οι απάτες με φωνή που δημιουργείται με ΑΙ

Οι απάτες με φωνή που δημιουργείται με AI βασίζονται σε μια διαδικασία που περιλαμβάνει δύο βήματα: κλωνοποίηση φωνής και κοινωνική μηχανική.

Πρώτον, οι απατεώνες αποκτούν ένα δείγμα της φωνής του αγαπημένου προσώπου του στόχου τους. Αυτό μπορεί να γίνει με διάφορα μέσα, όπως η εγγραφή μιας τηλεφωνικής συνομιλίας, η εξαγωγή ήχου από δημοσιεύσεις στα μέσα κοινωνικής δικτύωσης ή ακόμα και η σύνθεση ομιλίας από μηνύματα κειμένου.

Με αυτό το δείγμα φωνής στα χέρια τους, οι απατεώνες χρησιμοποιούν τεχνολογία κλωνοποίησης φωνής AI για να δημιουργήσουν ένα σχεδόν τέλειο αντίγραφο.

Αυτό οφείλεται στην τεχνολογία deepfake, η οποία μπορεί να αναλύσει τον τόνο της φωνής, τον ρυθμό και ακόμη και τους συναισθηματικούς τόνους.

Μόλις κλωνοποιηθεί η φωνή, οι επιτήδειοι ξεκινούν την επίθεση κοινωνικής μηχανικής. Καλούν τον στόχο και χρησιμοποιούν την κλωνοποιημένη φωνή για να δημιουργήσουν εμπιστοσύνη και να προκαλέσουν συμπάθεια.

Σε ορισμένες περιπτώσεις, ο απατεώνας μπορεί να ισχυριστεί ότι είναι μέλος της οικογένειας που βρίσκεται σε κακή οικονομική κατάσταση και χρειάζεται χρήματα για κάποιο επείγον ζήτημα.

Στις απάτες deepfake με θύματα ηλικιωμένους, οι κακοποιοί φτάνουν στο σημείο να προσποιηθούν ότι είναι εγγόνι τους που έχει συλληφθεί και λέει ότι χρειάζεται χρήματα για να πληρώσει την εγγύηση.

Μπορεί να χρησιμοποιήσουν λεπτομέρειες που έχουν συλλεχθεί από προφίλ κοινωνικών μέσων ή προηγούμενες συνομιλίες για να κάνουν την πλαστοπροσωπία τους ακόμα πιο πιστευτή.

Πώς να παραμείνετε ασφαλείς

Ενώ οι απάτες με φωνή AI αποτελούν μια περίπλοκη απειλή, υπάρχουν μέτρα που μπορείτε να λάβετε για να προστατευτείτε.

 

 

 

Exit mobile version