Τα τεχνητά «deepfake» βίντεο με εσάς χρειάζονται μόνο μια φωτογραφία σας και μόλις λίγα λεπτά για να δημιουργηθούν. Αυτή είναι η προειδοποίηση από έναν εμπειρογνώμονα ασφαλείας, ο οποίος λέει ότι οι εφαρμογές AI (τεχνητή νοημοσύνη) μπορούν να ζωντανέψουν το πρόσωπό σας και να εφαρμόσουν ψεύτικο ήχο σε αυτό πολύ γρήγορα και εύκολα.
Τα Deepfakes είναι τεχνητά βίντεο ανθρώπων που δημιουργούνται με τη χρήση τεχνητής νοημοσύνης με βάση υπάρχουσες εικόνες. Και τα σύγχρονα deepfakes μπορούν να περιλαμβάνουν ακόμη και ψεύτικο ήχο με τεχνητή φωνή, όλα δημιουργημένα με χρήση τεχνητής νοημοσύνης.
Η τεχνητή νοημοσύνη είναι πλέον τόσο ισχυρή που μπορεί να δημιουργήσει πειστικά βίντεο από μεμονωμένες ακίνητες εικόνες, σύμφωνα με τον εμπειρογνώμονα ασφαλείας Matt Sparrow.
«Είμαστε ήδη εκεί. Θα μπορούσα να τραβήξω μια φωτογραφία αυτή τη στιγμή και μέσα σε λίγα λεπτά θα μπορούσα να σας βάλω να τραγουδάτε το τραγούδι “Ride the Lightning” των Metallica», δήλωσε ο Matt, ανώτερος αναλυτής επιχειρήσεων πληροφοριών στην Centripetal, μιλώντας στην The U.S. Sun. «Είναι τόσο εύκολο, που είναι τρομακτικό».
Πραγματική ή ψεύτικη
Οι ειδικοί σε θέματα ασφάλειας ανησυχούν όλο και περισσότερο για το πόσο δύσκολο γίνεται να ξεχωρίσουν τα deepfakes από τα πραγματικά. Παλαιότερα ήταν εύκολο να εντοπίσεις μια απατηλή εικόνα τεχνητής νοημοσύνης αναζητώντας επιπλέον δάχτυλα ή περίεργα οπτικά ελαττώματα.
Τώρα η συμβουλή είναι να διερευνήσετε αν το βίντεο βγάζει νόημα και αν φαίνεται ύποπτο. Εάν προβάλλει έναν τολμηρό ισχυρισμό ή σας ζητά να πάρετε μια επείγουσα απόφαση, αυτό είναι μια σημάδι.
«Οι άνθρωποι πρέπει να εμπιστεύονται αλλά να επαληθεύουν», είπε ο Matt. «Αν δεν λάβω κάποιου είδους επικοινωνία από εσάς πριν από ένα μεγάλο αίτημα ή μια αίτηση περιουσιακών στοιχείων, τότε θα επικοινωνήσω μαζί σας μέσω μιας γνωστής και αξιόπιστης μεθόδου επικοινωνίας. Δυστυχώς, οι μεγάλες παύσεις και οι φωνητικές συνομιλίες είναι υποκειμενικές. Είναι δύσκολο να τα εντοπίσεις και να τα καταλάβεις. Η τεχνολογία είναι πολύ καλή».
Τώρα που η τεχνητή νοημοσύνη είναι τόσο προηγμένη και εύκολα προσβάσιμη, οι εγκληματίες είναι σε θέση να τη χρησιμοποιήσουν για ένα ευρύ φάσμα απατών.
Οι απατεώνες μπορούν να κλωνοποιήσουν τη φωνή σας μέσα σε λίγα δευτερόλεπτα με εργαλεία AI – ή να χρησιμοποιήσουν chatbots για να δημιουργήσουν γρήγορα πειστικό περιεχόμενο απάτης για να σας ξεγελάσουν.
Απάτες Spam
Ο Matt αποκάλυψε ότι “σχεδόν όλα” όσα θα έκανε κανονικά ένας απατεώνας για να σας ξεγελάσει μπορούν να γίνουν ευκολότερα ή πιο πειστικά με τη χρήση τεχνητής νοημοσύνης.
«Η τεχνητή νοημοσύνη χρησιμοποιείται για να ξαναγράψει μηνύματα ηλεκτρονικού ταχυδρομείου, κακόβουλοι φορείς τη χρησιμοποιούν για εκστρατείες phishing και κοινωνικής μηχανικής», εξήγησε ο ειδικός σε θέματα ασφάλειας.
«Οι άνθρωποι γενικά θα πρέπει απλώς να είναι προσεκτικοί και να σταματήσουν να δίνουν δωρεάν πληροφορίες. Δεν είναι κακό να λέτε “όχι” σε πράγματα. Άλλες απάτες που συμβαίνουν προέρχονται από παραβιάσεις δεδομένων. Μόλις πρόσφατα υπήρξε μια παραβίαση δεδομένων που αφορούσε ποινικά μητρώα. Προβλέπω ολόψυχα ότι αυτοί οι άνθρωποι και οι γύρω τους θα δεχτούν κάποιας μορφής τηλεφωνήματα απάτης. Θα ακούσουν πράγματα όπως “χρωστάτε ένα ανεξόφλητο υπόλοιπο για πρόστιμα’ ή ίσως ‘αυτό το άτομο είπε ότι θα μπορούσε να σας χρησιμοποιήσει ως συστατική επιστολή”» τόνισε.
«Κάθε φορά που υπάρχει παραβίαση δεδομένων, οι άνθρωποι βομβαρδίζονται συνεχώς με κινδύνους» κατέληξε.

