Οι εφαρμογές που χρησιμοποιούν τεχνητή νοημοσύνη για να γδύνουν τους ανθρώπους σε φωτογραφίες αυξάνονται σε δημοτικότητα, σύμφωνα με νέα έρευνα μέσων κοινωνικής δικτύωσης. Αυτά τα προγράμματα χειραγωγούν υπάρχουσες εικόνες και βίντεο πραγματικών ατόμων και τα κάνουν να φαίνονται γυμνά χωρίς συναίνεση. Πολλές από αυτές τις εφαρμογές λειτουργούν μόνο σε γυναίκες.
Μια πρόσφατη μελέτη που διεξήχθη από την εταιρεία αναλύσεων κοινωνικών μέσων Graphika ανέλυσε 34 εταιρείες που προσφέρουν αυτήν την υπηρεσία, την οποία ονομάζουν μη συναινετική οικεία εικόνα (NCII). Διαπίστωσαν ότι αυτοί οι ιστότοποι δέχθηκαν 24 εκατομμύρια μοναδικές επισκέψεις μόνο τον Σεπτέμβριο.
“Γδύστε όποια κοπέλα θέλετε”
Οι διαφημίσεις μιας τέτοιας εταιρείας αναφέρουν “Γδύστε όποια κοπέλα θέλετε”. Αυτή η εικονική βιομηχανία ήταν σχεδόν ανύπαρκτη πέρυσι. Η διαθεσιμότητα μοντέλων διάχυσης εικόνας AI ανοιχτού κώδικα έχει απλοποιήσει τη διαδικασία τροποποίησης των φωτογραφιών και επέτρεψε την κυκλοφορία αυτών των νέων εφαρμογών και ιστότοπων. Ως απόδειξη της σημαντικής ανάπτυξής του, ο όγκος των συνδέσμων παραπομπής στο Reddit και το X αυξήθηκε πάνω από 2400% τον τελευταίο χρόνο.
«Με την ενίσχυση αυτών των υπηρεσιών AI, οι πάροχοι συνθετικών NCII λειτουργούν πλέον ως μια πλήρως ανεπτυγμένη διαδικτυακή βιομηχανία, αξιοποιώντας πολλές από τις ίδιες τακτικές μάρκετινγκ και εργαλεία δημιουργίας εσόδων με τις καθιερωμένες εταιρείες ηλεκτρονικού εμπορίου. Αυτό περιλαμβάνει τη διαφήμιση σε βασικές πλατφόρμες μέσων κοινωνικής δικτύωσης, το μάρκετινγκ με influencers, την ανάπτυξη σχημάτων παραπομπής πελατών και τη χρήση τεχνολογιών διαδικτυακών πληρωμών», γράφουν οι ερευνητές .
Οι γυμνές φωτογραφίες που κοινοποιούνται στον ιστό χωρίς συγκατάθεση δεν είναι κάτι καινούργιο. Το 2018, ένας χάκερ καταδικάστηκε σε οκτώ μήνες φυλάκιση για τη συμμετοχή του στην κοινή χρήση αυθεντικών γυμνών φωτογραφιών της ηθοποιού Τζένιφερ Λόρενς και άλλων διασημοτήτων δημόσια στο διαδίκτυο. Η Λόρενς χαρακτήρισε το χαρακτήρισε ως «σεξουαλικό έγκλημα».
Τώρα, τέτοιες φωτογραφίες μπορούν να δημιουργηθούν με το πάτημα λίγων πλήκτρων. Και θα είναι δύσκολο να πούμε αν οι εικόνες είναι αυθεντικές ή κατασκευασμένες.
Η προειδοποίηση από το FBI
Τον Ιούνιο, το FBI εξέδωσε μια προειδοποίηση σχετικά με την αύξηση της χειραγώγησης των φωτογραφιών για εκβιασμό ή για δημιουργία ανάλογου περιεχομένου. «Κακόβουλοι δράστες χρησιμοποιούν τεχνολογίες και υπηρεσίες χειραγώγησης περιεχομένου για να εκμεταλλευτούν φωτογραφίες και βίντεο —που συνήθως λαμβάνονται από τον λογαριασμό ενός ατόμου στα μέσα κοινωνικής δικτύωσης, ανοιχτό διαδίκτυο ή ζητούνται από το θύμα— σε εικόνες με σεξουαλικό θέμα που φαίνονται αληθινές σε ομοιότητα με ένα θύμα, στη συνέχεια τις δημοσιεύουν σε μέσα κοινωνικής δικτύωσης, δημόσια φόρουμ ή πορνογραφικούς ιστότοπους», προειδοποιεί ο ιστότοπος του FBI. Προσθέτουν ότι οι φωτογραφίες μερικές φορές χρησιμοποιούνται ως «εκβιασμός» για να κερδίσουν λύτρα.
Ανησυχία και για την χρήση για παιδική πορνογραφία
Επιπρόσθετα στην ανησυχία, αυτά τα προγράμματα χρησιμοποιούνται και για την παιδική πορνογραφία. Γυμνές εικόνες περισσότερων από 20 νεαρών κοριτσιών στην Ισπανία που δημιουργήθηκαν από την τεχνητή νοημοσύνη αποκαλύφθηκαν τον Σεπτέμβριο. Οι περισσότερες από τις φωτογραφίες είχαν δημιουργηθεί χρησιμοποιώντας πλήρως ντυμένες φωτογραφίες από τους λογαριασμούς των κοριτσιών στο Instagram. Μετά την αλλαγή των εικόνων χρησιμοποιώντας την εφαρμογή με τεχνητή νοημοσύνη “ClothOff”, οι γυμνές φωτογραφίες κοινοποιήθηκαν σε ομάδες WhatsApp.
Το νομικό πλαίσιο ίσως πρέπει άμεσα να επικαιροποιηθεί. Σύμφωνα με το Time , το TikTok και το Meta έχουν μπλοκάρει τη λέξη αναζήτησης «γδύνω» για να μειώσουν την πρόσβαση στα προγράμματα. Η Google έχει επίσης αφαιρέσει ορισμένες διαφημίσεις για τέτοιες εφαρμογές και ιστοτόπους.