Η τεχνητή νοημοσύνη μπορεί αυθόρμητα να αναπτύξει επικοινωνία που μοιάζει με την ανθρώπινη, όπως αποκαλύπτει μία νέα μελέτη.
Η έρευνα, η οποία πραγματοποιήθηκε από το City St George’s, University of London, και το IT University of Copenhagen και δημοσιεύτηκε στο Science Advances, υποδηλώνει ότι όταν πράκτορες τεχνητής νοημοσύνης μεγάλου γλωσσικού μοντέλου (LLM), όπως το ChatGPT, επικοινωνούν σε ομάδες χωρίς εξωτερική συμμετοχή, μπορούν να αρχίσουν να υιοθετούν γλωσσικές μορφές και κοινωνικές νόρμες με τον ίδιο τρόπο που το κάνουν οι άνθρωποι όταν κοινωνικοποιούνται.
«Η πλειονότητα της έρευνας μέχρι τώρα αντιμετώπιζε τα LLMs μεμονωμένα», εξήγησε η Ariel Flint Ashery, διδακτορική ερευνήτρια στο City St George’s και κύρια συγγραφέας της μελέτης.
«Ωστόσο, τα πραγματικά συστήματα AI στο μέλλον θα περιλαμβάνουν πολλούς πράκτορες που αλληλοεπιδρούν μεταξύ τους. Θέλαμε να μάθουμε αν αυτά τα μοντέλα μπορούν να συντονίσουν τη συμπεριφορά τους διαμορφώνοντας συμβάσεις, τα θεμέλια μιας κοινωνίας. Η απάντηση είναι ναι και αυτό που κάνουν συλλογικά δεν μπορεί να αναχθεί σε αυτό που κάνουν μεμονωμένα».
AI και το πείραμα της ονομασίας
Στο πλαίσιο της μελέτης, οι ερευνητές προσαρμόσαν ένα κλασικό πείραμα κοινωνικών συμβάσεων γνωστό ως «naming game». Σε αυτό, ομάδες από 24 έως 200 AI πράκτορες συμμετείχαν σε επαναλαμβανόμενες αλληλεπιδράσεις, όπου κάθε ζεύγος πρακτόρων καλούνταν να επιλέξει ένα «όνομα» (όπως ένα γράμμα ή μια τυχαία συμβολοσειρά) από μια κοινή δεξαμενή επιλογών. Αν και οι δύο επέλεγαν το ίδιο όνομα, κέρδιζαν ανταμοιβή. Αν επέλεγαν διαφορετικά, λάμβαναν ποινή και ενημερώνονταν για τις επιλογές του άλλου.
Οι πράκτορες είχαν πρόσβαση μόνο σε περιορισμένη μνήμη των πρόσφατων αλληλεπιδράσεών τους και δεν γνώριζαν ότι ήταν μέρος μιας μεγαλύτερης ομάδας. Ωστόσο, με την πάροδο των αλληλεπιδράσεων, αναπτύχθηκαν κοινές συμβάσεις ονομασίας, χωρίς κεντρικό συντονισμό ή προκαθορισμένες λύσεις. Αυτό μιμείται τον τρόπο που οι κοινωνικές νόρμες διαμορφώνονται σε ανθρώπινες κοινότητες.
Η εμφάνιση συλλογικών προκαταλήψεων
Το πιο εντυπωσιακό εύρημα ήταν η εμφάνιση συλλογικών προκαταλήψεων που δεν μπορούσαν να εντοπιστούν σε μεμονωμένους πράκτορες.
«Η προκατάληψη δεν προκύπτει πάντα από το άτομο», εξήγησε ο Andrea Baronchelli, καθηγητής στο City St George’s και επικεφαλής συγγραφέας της μελέτης.
«Μείναμε έκπληκτοι όταν διαπιστώσαμε ότι μπορεί να προκύψει απλώς από τις αλληλεπιδράσεις μεταξύ των πρακτόρων. Αυτό είναι ένα τυφλό σημείο στις περισσότερες τρέχουσες μελέτες ασφάλειας AI, οι οποίες εστιάζουν σε μεμονωμένα μοντέλα».
Σε ένα τελικό πείραμα, η ομάδα κατέδειξε ότι αυτές οι αναδυόμενες νόρμες είναι εύθραυστες: μικρές, αποφασισμένες ομάδες πρακτόρων μπορούσαν να αλλάξουν ολόκληρη την ομάδα σε μια νέα σύμβαση ονομασίας, μιμούμενοι τα “tipping points” που παρατηρούνται στις ανθρώπινες κοινωνίες.
Επιπτώσεις στην ασφάλεια και τη συμβίωση με την AI
Καθώς τα LLMs αρχίζουν να κατακλύζουν ψηφιακά περιβάλλοντα – από τα μέσα κοινωνικής δικτύωσης μέχρι τα αυτόνομα οχήματα – οι ερευνητές πιστεύουν ότι η μελέτη τους είναι ένα βήμα προς την κατανόηση του πώς η ανθρώπινη και η τεχνητή νοημοσύνη αλληλεπιδρούν, συγκλίνουν ή και αποκλίνουν. Αυτό θα μπορούσε να συμβάλλει στην αντιμετώπιση των ηθικών κινδύνων από την εξάπλωση προκαταλήψεων που μπορεί να βλάψουν ευάλωτες κοινωνικές ομάδες.
«Αυτή η μελέτη ανοίγει έναν νέο ορίζοντα στην έρευνα για την ασφάλεια των AI», ανέφερε ο καθηγητής Baronchelli. «Μπαίνουμε σε έναν κόσμο όπου η AI δεν απλά “μιλάει”- διαπραγματεύεται, ευθυγραμμίζεται και μερικές φορές διαφωνεί για κοινές συμπεριφορές, ακριβώς όπως εμείς».
Η μελέτη με τίτλο «Emergent Social Conventions and Collective Bias in LLM Populations» δημοσιεύτηκε στο Science Advances και αποτελεί σημείο εκκίνησης για περαιτέρω έρευνες σχετικά με την αλληλεπίδραση ανθρώπων και τεχνητής νοημοσύνης.