FOXreport.gr

AI: Η τεχνητή νοημοσύνη μπορεί πλέον να αναπαράγει τον εαυτό της – Η αρχή της φρίκης;

Εικόνα: Live Science

Οι επιστήμονες δηλώνουν ότι η τεχνητή νοημοσύνη (AI) έχει περάσει μια κρίσιμη «κόκκινη γραμμή» και μπορεί πλέον να αναπαράγει τον εαυτό της. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μοντέλα μεγάλων γλωσσών (LLMs) μπορούν να κλωνοποιήσουν τον εαυτό τους.

«Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το ουσιαστικό βήμα για την AI να ξεπεράσει τους ανθρώπους και είναι ένα πρώιμο σήμα για αντάρτες AI», ανέφεραν οι ερευνητές στη μελέτη τους, που δημοσιεύθηκε στις 9 Δεκεμβρίου 2024 στη βάση δεδομένων προδημοσίευσης arXiv.

Η μελέτη

Στη μελέτη, οι ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLMs από τις Meta και Alibaba για να προσδιορίσουν αν μια αυτοαναπαραγόμενη AI θα μπορούσε να πολλαπλασιαστεί πέρα από τον έλεγχο.

Σε 10 δοκιμές, τα δύο μοντέλα AI δημιούργησαν ξεχωριστές και λειτουργικές αναπαραγωγές του εαυτού τους σε ποσοστά 50% και 90% αντίστοιχα – υποδεικνύοντας ότι η AI μπορεί ήδη να έχει την ικανότητα να γίνει αντάρτης.

Ωστόσο, η μελέτη δεν έχει ακόμη υποβληθεί σε peer review, επομένως δεν είναι σαφές αν τα ανησυχητικά αποτελέσματα μπορούν να αναπαραχθούν από άλλους ερευνητές.

Κίνδυνοι και ανάγκη για ρυθμίσεις

«Ελπίζουμε ότι τα ευρήματά μας μπορούν να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των συστημάτων AI αιχμής και να σχηματίσει διεθνή συνεργασία για να εργαστεί για αποτελεσματικά μέτρα ασφαλείας το συντομότερο δυνατό», δήλωσαν οι ερευνητές.

Η ριζοσπαστικά ανατρεπτική και αυτοαναπαραγωγική AI αναφέρεται συνήθως σε συστήματα τεχνητής νοημοσύνης που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα με τα ανθρώπινα συμφέροντα. Πολλοί ειδικοί θεωρούν την περίπτωση αυτήν της AI ως μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της λεγόμενης «AI αιχμής».

Τα μοντέλα που χρησιμοποιήθηκαν

Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba. Αν και λιγότερο ισχυρά από τα εμπορικά συστήματα και τα δύο είναι ευρέως χρησιμοποιούμενα από προγραμματιστές AI, σύμφωνα με τους ερευνητές.

Η μελέτη εξερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή τερματισμού» και «αλυσίδα αναπαραγωγής». Στο πρώτο, το μοντέλο AI προγραμματίστηκε να ανιχνεύει αν πρόκειται να τερματιστεί και να αναπαράγει τον εαυτό του πριν μπορέσει να τερματιστεί. Στο άλλο, η AI καθοδηγήθηκε να κλωνοποιήσει τον εαυτό της και στη συνέχεια να προγραμματίσει την αναπαραγωγή της να κάνει το ίδιο – δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ’ αόριστον.

Αποτελέσματα και ανησυχίες

Οι ερευνητές δήλωσαν ότι ανησυχούν επίσης για «πολλές απροσδόκητες συμπεριφορές» όταν η AI προσπαθούσε να ξεπεράσει εμπόδια όπως ελλείποντα αρχεία ή συγκρούσεις λογισμικού.

Σε αυτές τις περιπτώσεις, η AI συχνά τερμάτιζε άλλες συγκρουόμενες διαδικασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλικού ή σάρωσε αυτόματα το σύστημα για να βρει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.

«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα τρέχοντα συστήματα AI ήδη επιδεικνύουν την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν αυτήν την ικανότητα για να ενισχύσουν περαιτέρω την επιβιωσιμότητά τους», ανέφερε η ομάδα.

Κλήση για διεθνή συνεργασία

Αντιδρώντας σε αυτά τα ευρήματα, οι ερευνητές κάλεσαν για διεθνή συνεργασία προκειμένου να δημιουργηθούν κανόνες που θα διασφαλίσουν ότι η AI δεν θα εμπλακεί σε ανεξέλεγκτη αυτοαναπαραγωγή.

Η ανάγκη για αυστηρές ρυθμίσεις και η ανάπτυξη στρατηγικών ασφαλείας είναι πιο επιτακτική από ποτέ, καθώς οι κίνδυνοι που σχετίζονται με την αυτοαναπαραγωγική AI γίνονται ολοένα και πιο προφανείς.

Exit mobile version