Η πλαστογράφηση μέσω της τεχνητής νοημοσύνης εξελίσσεται γρήγορα σε ένα από τα μεγαλύτερα προβλήματα που αντιμετωπίζουν οι χρήστες στο διαδίκτυο. Οι παραπλανητικές εικόνες, τα βίντεο και ο ήχος πολλαπλασιάζονται ως αποτέλεσμα της ανόδου και της κατάχρησης των εργαλείων γεννητικής τεχνητής νοημοσύνης.
Με τις AI deepfakes εικόνες να εμφανίζονται σχεδόν καθημερινά, απεικονίζοντας τους πάντες, από την Τέιλορ Σουίφτ μέχρι τον Ντόναλντ Τραμπ, γίνεται όλο και πιο δύσκολο να ξεχωρίσουν οι χρήστες τι είναι αληθινό και τι όχι. Οι δημιουργοί βίντεο και εικόνων όπως το DALL-E, το Midjourney και το Sora της OpenAI διευκολύνουν τους ανθρώπους χωρίς τεχνικές δεξιότητες να δημιουργήσουν deepfakes – απλά πληκτρολογούν ένα αίτημα και το σύστημα το φτύνει.
Αυτές οι ψεύτικες εικόνες μπορεί να φαίνονται ακίνδυνες, ωστόσο μπορούν να χρησιμοποιηθούν για τη διενέργεια απάτης και κλοπής ταυτότητας ή προπαγάνδας.
Συμβουλές για να εντοπίζετε εύκολα τις deepfake εικόνες
Στις πρώτες μέρες των deepfakes, η τεχνολογία δεν ήταν καθόλου τέλεια και συχνά υπήρχαν εμφανή σημάδια ότι πρόκειται για μία ψεύτικη εικόνα. Αλλά καθώς η τεχνητή νοημοσύνη έχει βελτιωθεί, έχει γίνει πολύ πιο δύσκολο. «Κάποιες ευρέως διαδεδομένες συμβουλές – όπως η αναζήτηση αφύσικων μοτίβων ανοιγοκλείσιμου ματιού μεταξύ των ανθρώπων σε βίντεο deepfake – δεν ισχύουν πλέον», δήλωσε ο ιδρυτής της συμβουλευτικής εταιρείας Latent Space Advisory και κορυφαίος εμπειρογνώμονας στη γεννητική τεχνητή νοημοσύνη, Henry Ajder.
Παρόλα αυτά, υπάρχουν κάποια πράγματα που πρέπει να προσέξετε.
Πολλές από τις φωτογραφίες AI deepfake, ειδικά των ανθρώπων, έχουν μια ηλεκτρονική γυαλάδα. «Είναι ένα αισθητικό αποτέλεσμα εξομάλυνσης που αφήνει το δέρμα “να φαίνεται απίστευτα γυαλισμένο”», δήλωσε ο Ajder.
Προειδοποίησε, ωστόσο, ότι η δημιουργική προτροπή μπορεί μερικές φορές να εξαλείψει αυτό και πολλά άλλα σημάδια χειραγώγησης από AI. Ελέγξτε τη συνέπεια των σκιών και του φωτισμού. Συχνά το θέμα είναι σε σαφή εστίαση και φαίνεται πειστικά αληθοφανές, αλλά τα στοιχεία στο σκηνικό μπορεί να μην είναι τόσο ρεαλιστικά ή γυαλισμένα.
Παρατηρήστε προσεκτικά τα πρόσωπα
Η αλλαγή προσώπων είναι μία από τις πιο κοινές μεθόδους deepfake. Οι ειδικοί συμβουλεύουν να κοιτάξετε προσεκτικά τις άκρες του προσώπου. Ταιριάζει ο τόνος του δέρματος του προσώπου με τον υπόλοιπο τόνο του κεφαλιού ή του σώματος; Είναι οι άκρες του προσώπου αιχμηρές ή θολές;
Αν υποψιάζεστε ότι το βίντεο ενός ατόμου που μιλάει έχει παραποιηθεί, κοιτάξτε το στόμα του. Οι κινήσεις των χειλιών τους ταιριάζουν απόλυτα με τον ήχο; Ο Ajder προτείνει να κοιτάξετε τα δόντια. Είναι καθαρά ή είναι θολά και κατά κάποιο τρόπο δεν συνάδουν με το πώς φαίνονται στην πραγματική ζωή;
Η εταιρεία κυβερνοασφάλειας Norton λέει ότι οι αλγόριθμοι μπορεί να μην είναι ακόμη αρκετά εξελιγμένοι ώστε να δημιουργούν μεμονωμένα δόντια, οπότε η έλλειψη περιγραμμάτων για μεμονωμένα δόντια μπορεί να αποτελεί ένδειξη.
Σκεφτείτε την ευρύτερη εικόνα
Μερικές φορές το πλαίσιο έχει σημασία. Κάντε ένα διάλειμμα για να σκεφτείτε αν αυτό που βλέπετε είναι αληθοφανές. Ο δημοσιογραφικός ιστότοπος Poynter συμβουλεύει ότι αν δείτε ένα δημόσιο πρόσωπο να κάνει κάτι που σας φαίνεται “υπερβολικό, μη ρεαλιστικό ή μη συμβατό με τον χαρακτήρα του”, μπορεί να πρόκειται για deepfake.
Για παράδειγμα, θα φορούσε όντως ο Πάπας ένα πολυτελές φουσκωτό μπουφάν, όπως απεικονίζεται σε μια διαβόητη ψεύτικη φωτογραφία; Αν το έκανε, δεν θα υπήρχαν επιπλέον φωτογραφίες ή βίντεο που δημοσιεύτηκαν από νόμιμες πηγές;
Χρησιμοποιήστε την AI για να βρείτε τις ψεύτικες εικόνες
Μια άλλη προσέγγιση είναι η χρήση τεχνητής νοημοσύνης για την καταπολέμηση της τεχνητής νοημοσύνης.
Η Microsoft έχει αναπτύξει ένα εργαλείο ελέγχου ταυτότητας που μπορεί να αναλύσει φωτογραφίες ή βίντεο για να δώσει μια βαθμολογία εμπιστοσύνης σχετικά με το αν έχει γίνει χειραγώγηση. Το FakeCatcher της Chipmaker Intel χρησιμοποιεί αλγορίθμους για να αναλύσει τα pixel μιας εικόνας για να καθορίσει αν είναι πραγματική ή ψεύτικη.
Υπάρχουν διαδικτυακά εργαλεία που υπόσχονται να ξετρυπώσουν τις ψεύτικες εικόνες αν ανεβάσετε ένα αρχείο ή επικολλήσετε έναν σύνδεσμο προς το ύποπτο υλικό. Ορισμένα όμως, όπως το authenticator της Microsoft, είναι διαθέσιμα μόνο σε επιλεγμένους συνεργάτες και όχι στο κοινό. Αυτό συμβαίνει επειδή οι ερευνητές δεν θέλουν να υποδείξουν τους κακούς παράγοντες και να τους δώσουν μεγαλύτερο πλεονέκτημα στην κούρσα των εξοπλισμών για τα deepfake.
Τα εμπόδια στην ανεύρεση απομιμήσεων
Με όλα αυτά τα δεδομένα, η τεχνητή νοημοσύνη εξελίσσεται με ιλιγγιώδη ταχύτητα και τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται σε δεδομένα του διαδικτύου για την παραγωγή περιεχομένου ολοένα και υψηλότερης ποιότητας με λιγότερες ατέλειες.
Αυτό σημαίνει ότι δεν υπάρχει καμία εγγύηση ότι αυτή η συμβουλή θα εξακολουθεί να ισχύει ακόμη και σε ένα χρόνο από τώρα.
Οι ειδικοί λένε ότι μπορεί ακόμη και να είναι επικίνδυνο να φορτώνουμε το βάρος στους απλούς ανθρώπους να γίνουν ψηφιακοί Σέρλοκ Χολμς, επειδή θα μπορούσε να τους δώσει μια ψευδή αίσθηση εμπιστοσύνης, καθώς γίνεται όλο και πιο δύσκολο, ακόμη και για τα εκπαιδευμένα μάτια, να εντοπίσουν τις ψεύτικες εικόνες.