Η τεχνητή νοημοσύνη (AI) έχει μπει για τα καλά στην καθημερινότητά μας, είτε αυτό αφορά εφαρμογές, λειτουργίες, είτε και chatbot που μοιάζουν με ανθρώπους.
Και ακόμα κι αν δεν χρησιμοποιείτε αυτά τα εργαλεία που τροφοδοτούνται με AI, οι εγκληματίες μπορεί να σας στοχοποιήσουν μόνο και μόνο επειδή έχετε έναν αριθμό τηλεφώνου.
Για παράδειγμα, οι εγκληματίες μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να δημιουργήσουν ψεύτικες φωνές (ακόμα και αυτές που ακούγονται σαν ένα αγαπημένο πρόσωπο) απλώς για να σας εξαπατήσουν, όπως αναφέρει η The Sun.
AI και εξαπάτηση: Ποιοι οι τρόποι που μπορεί να κινδυνέψετε
Ένας κορυφαίος ειδικός σε θέματα ασφαλείας προειδοποίησε μερικούς από τους τρόπους με τους οποίους οι εγκληματίες χρησιμοποιούν ήδη την τεχνητή νοημοσύνη για να σας στοχοποιήσουν.
«Πολλοί άνθρωποι εξακολουθούν να σκέφτονται την τεχνητή νοημοσύνη ως μελλοντική απειλή, αλλά πραγματικές επιθέσεις συμβαίνουν αυτή τη στιγμή», δήλωσε ο ειδικός σε θέματα ασφάλειας, Paul Bischoff.
Τηλεφωνικός κλώνος
«Πιστεύω ότι ειδικά ο deepfake ήχος θα είναι μια πρόκληση γιατί εμείς ως άνθρωποι δεν μπορούμε εύκολα να τον αναγνωρίσουμε ως ψεύτικο και σχεδόν όλοι έχουν έναν αριθμό τηλεφώνου». Η κλωνοποίηση φωνής AI μπορεί να γίνει μέσα σε λίγα δευτερόλεπτα.
Και θα γίνεται όλο και πιο δύσκολο να ξεχωρίσει κανείς μια ψεύτικη φωνή από μια αληθινή. Ακόμα κι αν μπορείτε να ακούσετε τα σημάδια μιας ψεύτικης φωνής, μπορεί να μην μπορείτε στο εγγύς μέλλον.
Θα είναι σημαντικό να αποφεύγετε να απαντάτε σε άγνωστες κλήσεις, να χρησιμοποιείτε ασφαλείς λέξεις για την επαλήθευση της ταυτότητας καλούντων και να δίνετε προσοχή σε βασικά σημάδια απάτης, όπως επείγοντα αιτήματα για χρήματα ή πληροφορίες.
Φυσικά οι «deepfake» φωνές δεν είναι η μόνη απειλή AI που αντιμετωπίζουμε .
Chatbots
Ο Paul, ένας υπέρμαχος της προστασίας της ιδιωτικής ζωής των καταναλωτών στην Comparitech, προειδοποίησε ότι τα chatbots AI θα μπορούσαν να παραβιαστούν από εγκληματίες για να λάβουν τις προσωπικές σας πληροφορίες – ή ακόμα και να σας εξαπατήσουν.
«Τα chatbot AI θα μπορούσαν να χρησιμοποιηθούν για phishing για την κλοπή κωδικών πρόσβασης , αριθμών πιστωτικών καρτών, αριθμών κοινωνικής ασφάλισης και άλλων ιδιωτικών δεδομένων», είπε στην US Sun.
«Το AI κρύβει τις πηγές πληροφοριών από τις οποίες εν συνεχεία αντλεί δεδομένα για να δημιουργήσει απαντήσεις».
«Οι απαντήσεις μπορεί να είναι ανακριβείς ή μεροληπτικές και η τεχνητή νοημοσύνη μπορεί να αντληθεί από πηγές που υποτίθεται ότι είναι εμπιστευτικές».
Διαδίκτυο και…κίνδυνοι εξαπάτησης
Ένα μεγάλο πρόβλημα για τους τακτικούς χρήστες του διαδικτύου είναι ότι η τεχνητή νοημοσύνη θα είναι σύντομα αναπόφευκτη. Ήδη τροφοδοτεί τα chatbots που χρησιμοποιούνται από δεκάδες εκατομμύρια ανθρώπους και αυτός ο αριθμός θα αυξηθεί.
Και θα εμφανίζεται σε έναν αυξανόμενο αριθμό εφαρμογών και προϊόντων. Για παράδειγμα, το Gemini της Google και το Microsoft Copilot εμφανίζονται ήδη σε προϊόντα και συσκευές – και η Apple Intelligence θα τροφοδοτήσει σύντομα το iPhone, με τη βοήθεια του ChatGPT του OpenAI.
Επομένως, είναι σημαντικό οι τακτικοί χρήστες όλων αυτών των μέσων, να γνωρίζουν πώς να παραμένουν ασφαλείς όταν χρησιμοποιούν AI.
«Το AI θα ενσωματωθεί σταδιακά (ή απότομα) σε υπάρχοντα chatbot, μηχανές αναζήτησης και άλλες τεχνολογίες», εξήγησε ο Paul.
«Το AI περιλαμβάνεται ήδη από προεπιλογή στην Αναζήτηση Google και στα Windows 11 και οι προεπιλογές έχουν σημασία». «Ακόμα κι αν έχουμε την επιλογή να απενεργοποιήσουμε την τεχνητή νοημοσύνη, οι περισσότεροι δε θα το κάνουν».