Η τεχνητή νοημοσύνη εξελίσσεται με ραγδαίο ρυθμό και παρά τις καινοτομίες που έχει φέρει στο χώρο της τεχνολογίας, της επιστήμης, της ιατρικής και της ψυχολογίας, δυστυχώς μπορεί να χρησιμοποιηθεί και για κακόβουλους σκοπούς.
Η τεχνολογία του deepfake προϋπάρχει εδώ και καιρό στο ίντερνετ, αλλά τα τελευταία χρόνια έχει πάρει κολοσσιαίες εκτάσεις με πολλούς διάσημους τραγουδιστές, ηθοποιούς και πολιτικούς να βλέπουν τον εαυτό τους να κάνει πράξεις ή να μιλάει χωρίς να είναι οι ίδιοι.
Αμέτρητες γυναίκες έχουν πέσει θύματα deepfake πορνογραφικού υλικού. Επίσης ηθοποιοί έχουν δει ένα AI ομοίωμά τους να προβαίνει σε δηλώσεις και πράξεις που ποτέ δεν θα ενέκριναν ή θα έλεγαν οι ίδιοι, ενώ πολιτικά AI να διακωμωδούν πρόσωπα και καταστάσεις.
Υπάρχουν όμως τρόποι με τους οποίους μπορείτε να διακρίνετε εάν ένα βίντεο είναι φτιαγμένο εξ’ ολοκλήρου με τεχνητή νοημοσύνη και έχει δανειστεί το πρόσωπο και τη φωνή ενός διάσημου προσώπου.
6 τρόποι για να καταλάβετε αν ένα βίντεο είναι ψεύτικο
- Παρατηρήστε το σχήμα του προσώπου
- Κοιτάξτε αν υπάρχει το αυθεντικό υλικό
- Προσπαθήστε να δείτε εάν οι εκφράσεις του προσώπου φαίνονται φυσικές
- Δείτε αν είναι τα ματιά είναι στη φυσιολογική θέση και αν είναι σωστή η απόσταση μεταξύ τους
- Προσπαθήστε να βρείτε ψηφιακά λάθη και μικροβλάβες στο βίντεο
- Ακούστε αν η φωνή συγχρονίζεται άψογα με το στόμα του προσώπου
Παρατηρήστε το σχήμα του προσώπου
Συνήθως όταν ένα βίντεο είναι deepfake, το πρόσωπο του ανθρώπου σε συγκεκριμένα χρονικά σημεία αλλάζει, διότι η τεχνητή νοημοσύνη αυτή τη στιγμή παίρνει εικόνες από το διαδίκτυο και δεν μπορεί να δημιουργήσει αυθεντικό υλικό σε σημείο πλήρους ανάπλασης προσώπου. Εάν το πρόσωπο εμφανίζει παραμορφώσεις, οι οποίες δεν συνάδουν με την πραγματικότητα, τότε το βίντεο είναι AI.
Κοιτάξτε αν υπάρχει το αυθεντικό υλικό
Πολλές φόρες το AI, αντλεί τις πληροφορίες του από ήδη υπάρχουσες συνεντεύξεις και εικόνες και έτσι τα περισσότερα παραδείγματα έχουν το ίδιο background, τα ίδια χρώματα, ή την ίδια στάση σώματος με μια ήδη προϋπάρχουσα συνομιλία ή συνέντευξη. Μία απλή και γρήγορη αναζήτηση στο YouTube μπορεί να φανεί χρήσιμη.
Προσπαθήστε να δείτε εάν οι εκφράσεις του προσώπου φαίνονται φυσικές
Μαζί με το σχήμα του προσώπου σε αυτά τα βίντεο, πηγαίνουν και οι εκφράσεις σε ανάλογες συμπεριφορές και αυξομειώσεις τις ομιλίας. Ένα εύκολο παράδειγμα για να διακρίνετε εάν υπάρχει παρέμβαση AI, είναι για το όταν τα λογία του προσώπου βγάζουν θύμο, ανησυχία ή οτιδήποτε περιέχει έντονα συναισθήματα.
Συνήθως με αυτά τα συναισθήματα κινούνται τα φρύδια, ανοίγουν ορθάνοικτα τα μάτια και συνοφρυώνεται το μέτωπο. Εάν τίποτα από αυτά δεν συμβαίνει τότε υπάρχει μια τεράστια πιθανότητα το βίντεο να είναι πλαστό.
Δείτε αν είναι τα ματιά είναι στη φυσιολογική θέση και αν είναι σωστή η απόσταση μεταξύ τους
Όταν κυκλοφόρησαν για πρώτη φορά τα deepfake βίντεο, η AI δεν είχε εξελιχθεί όσο σήμερα, όποτε για να γίνει η τέλεια προσθήκη ενός προσώπου σε σώμα, συνήθως κάποια πράγματα δεν ταίριαζαν ακριβώς.
Μια έξυπνη τεχνική για να δείτε εάν ένα βίντεο είναι ψεύτικο, είναι τα ματιά του προσώπου και κατά πόσο μένουν ίσα εφόσον και εάν το πρόσωπο κινείται (φυσιολογικά πάντα μαζί με το λόγο του). Εάν δείτε ότι τα μάτια ανά πάσα στιγμή αλλάζουν απόσταση τότε μπορεί να καταλάβετε ότι κάτι δεν πάει καλά.
Προσπαθήστε να βρείτε ψηφιακά λάθη και μικροβλάβες στο βίντεο
Τα γνωστά glitches αυτή τη στιγμή είναι ένας από τους πιο εμφανείς τρόπους να δείτε εάν ένα βίντεο είναι κατασκευασμένο από τη τεχνητή νοημοσύνη ή όχι. Εάν παρατηρήσετε ψηφιακά λάθη, αλλαγή χρώματος σε συγκεκριμένα σημεία του προσώπου, ή διακυμάνσεις στην ποιότητα, τότε το βίντεο είναι 100% ψεύτικο και φτιαγμένο από ΑΙ.
Ακούστε αν η φωνή συγχρονίζεται άψογα με το στόμα του προσώπου
Το πιο δύσκολο κομμάτι ώστε να αναγνωρίσετε την αυθεντικότητα ενός βίντεο. Πλέον η τεχνητή νοημοσύνη έχει σχεδόν τελειοποιήσει τον συγχρονισμό φωνής και στόματος αλλά μόνο εάν η συγκεκριμένη AI είναι από τα ”καλά”.
Μικρότερης ποιότητας AI ακόμα προβαίνουν σε μη συγχρονισμό φωνής και στόματος, όποτε υπάρχει η πιθανότητα να καταλάβετε ότι το βίντεο είναι ψεύτικο από αυτό το λάθος.