Η ανάπτυξη της τεχνητής νοημοσύνης έχει προχωρήσει ταχύτερα από ό,τι θα μπορούσε κανείς να περιμένει, οδηγώντας σε φόβους ότι η τεχνολογία θα μπορούσε να ξεπεράσει τους ανθρώπους.
Εξαιτίας αυτού, ορισμένοι επιστήμονες μελετούν την ανάπτυξη της τεχνητής υπερ-νόημοσύνης, η οποία δεν περιορίζεται από τους περιορισμούς της ανθρώπινης ταχύτητας μάθησης. Ωστόσο, άλλοι αναρωτιούνται μήπως η AI έχει προκαλέσει πισωγύρισμα στην ανάπτυξη άλλων πολιτισμών, ματαιώνοντας τις πιθανότητές τους για μακροχρόνια επιβίωση.
Μια μελέτη του Michael Garrett του Πανεπιστημίου του Manchester υποδηλώνει ότι η AI θα μπορούσε να αποτελέσει ένα «μεγάλο φίλτρο» του σύμπαντος. Ο Garrett υποστηρίζει ότι η τεχνολογία δημιουργεί ένα όριο που είναι τόσο δύσκολο να ξεπεραστεί και το οποίο «εμποδίζει την εξέλιξη της περισσότερης ζωής σε διαστημικούς πολιτισμούς».
Γιατί η AI μπορεί να αποτρέπει την εξέλιξη της ζωής σε διαστημικούς πολιτισμούς
Αυτό μπορεί να είναι ο λόγος για τον οποίο η αναζήτηση εξωγήινης νοημοσύνης (SETI) δεν έχει βρει ακόμα αποδείξεις για προηγμένες κοινωνίες στον γαλαξία. Ο Garrett υποστηρίζει ότι η τεχνολογία δημιουργεί ένα εμπόδιο το οποίο είναι τόσο δύσκολο να ξεπεραστεί που «αποτρέπει τη ζωή από το να εξελιχθεί σε διαστημικούς πολιτισμούς».
Η θεωρία του μεγάλου φίλτρου έχει προταθεί ως απάντηση στο παράδοξο του Fermi – την ασυμφωνία μεταξύ της έλλειψης σκληρών αποδείξεων για προηγμένη εξωγήινη ζωή και της υποτιθέμενης μεγάλης πιθανότητας ύπαρξής της
Για να το θέσουμε απλά, αν το σύμπαν είναι τεράστιο και αρκετά παλιό ώστε να φιλοξενήσει δισεκατομμύρια πιθανώς κατοικήσιμους πλανήτες, πώς γίνεται να μην έχουμε βρει κανένα σημάδι εξωγήινης ζωής;
Η θεωρία υποστηρίζει ότι υπάρχουν σημαντικά μπλοκαρίσματα στο χρονοδιάγραμμα της εξέλιξης των πολιτισμών που τους καθιστούν ανίκανους να ταξιδέψουν στο διάστημα.
«Πιστεύω ότι η εμφάνιση της Τεχνητής Υπερ-ευφυΐας (ΤΥ) θα μπορούσε να είναι ένα τέτοιο φίλτρο», έγραψε ο Garrett . «Η ταχεία πρόοδος της Τεχνητής Νοημοσύνης, που ενδεχομένως οδηγεί στην ΤΥ, μπορεί να συμπέσει με μια κρίσιμη φάση στην ανάπτυξη ενός πολιτισμού»
Επειδή η AI αναπτύσσεται με ταχύτερους ρυθμούς από τους αναμενόμενους, θα μπορούσε να επηρεάσει την ικανότητά μας να την ελέγξουμε ή να εξερευνήσουμε και να αποικίσουμε το Ηλιακό Σύστημα με βιώσιμο τρόπο.
Ωστόσο, τα προβλήματα που προκύπτουν με την AI είναι ο τρόπος με τον οποίο μπορεί να βελτιώνεται συνεχώς με ταχύτητα που ξεπερνά την ανθρώπινη αντίληψη.
Οι κίνδυνοι από την εξέλιξη της AI
«Η πιθανότητα κάτι να πάει πολύ στραβά είναι τεράστια, οδηγώντας στην πτώση τόσο των βιολογικών πολιτισμών όσο και των AI πολιτισμών πριν προλάβουν να γίνουν πολυπλανητικοί», έγραψε ο Garrett.
«Για παράδειγμα, εάν τα έθνη βασίζονται όλο και περισσότερο και παραχωρούν εξουσία σε αυτόνομα συστήματα ΑΙ που ανταγωνίζονται μεταξύ τους, οι στρατιωτικές δυνατότητες θα μπορούσαν να χρησιμοποιηθούν για να σκοτώσουν και να καταστρέψουν σε άνευ προηγουμένου κλίμακα».
«Θα μπορούσε ενδεχομένως να οδηγήσει στην καταστροφή του πολιτισμού μας»
Ο Garrett υποθέτει ότι αυτό θα μπορούσε ενδεχομένως να οδηγήσει στην καταστροφή του πολιτισμού μας, συμπεριλαμβανομένων των ίδιων των συστημάτων ΑΙ.
Σύμφωνα με αυτό το σενάριο, ο Garrett προβλέπει ότι η μακροζωία ενός τεχνολογικού πολιτισμού μπορεί να είναι λιγότερο από 100 χρόνια. «Αυτό είναι περίπου ο χρόνος μεταξύ της δυνατότητας λήψης και εκπομπής σημάτων μεταξύ των άστρων (1960) και της εκτιμώμενης εμφάνισης της ΤΥ (2040) στη Γη».
Η έρευνα του Garrett, που δημοσιεύτηκε στο Acta Astronautica, δεν είχε σκοπό να αποτελέσει τρομακτική ιστορία, αλλά να χρησιμεύσει ως προειδοποίηση για τη δημιουργία κανονισμών σχετικά με την ανάπτυξη της Τεχνητής Νοημοσύνης.
Στόχος η… πολυπλανητική κοινωνία
«Δεν πρόκειται μόνο για την αποτροπή της κακόβουλης χρήσης της ΑΙ στη Γη, αλλά και για τη διασφάλιση ότι η εξέλιξη της ΑΙ θα συμβαδίζει με τη μακροπρόθεσμη επιβίωση του είδους μας», έγραψε. «Αυτό υποδηλώνει ότι πρέπει να διαθέσουμε περισσότερους πόρους για να γίνουμε μια πολυπλανητική κοινωνία το συντομότερο δυνατό».
Αυτός ήταν ο στόχος στις πρώτες μέρες του προγράμματος Apollo της NASA, αλλά έκτοτε έχει γίνει πρόοδος από ιδιωτικές εταιρείες.
Κορυφαίοι ειδικοί του κλάδου έχουν ζητήσει αναστολή της ανάπτυξης της Τεχνητής Νοημοσύνης λόγω των επιπτώσεων της αυτόνομης λήψης αποφάσεων. «Αλλά ακόμα κι αν όλες οι χώρες συμφωνούσαν να τηρήσουν αυστηρούς κανόνες και κανονισμούς, οι παράνομες οργανώσεις θα είναι δύσκολο να ελεγχθούν»
Η ενσωμάτωση της ΑΙ στα συστήματα στρατιωτικής άμυνας αποτελεί επίσης αιτία ανησυχίας, καθώς ο Garrett υποστηρίζει ότι υπάρχουν ήδη ενδείξεις ότι οι άνθρωποι θα παραχωρήσουν εξουσία σε όλο και πιο ικανά συστήματα για να εκτελέσουν χρήσιμες εργασίες με πιο γρήγορο ρυθμό.
Εξαιτίας αυτού, οι κυβερνήσεις τείνουν να απέχουν από τη ρύθμιση της ΑΙ, δεδομένων των στρατηγικών προόδων που μπορεί να επιφέρει. «Αυτό σημαίνει ότι βρισκόμαστε ήδη επικίνδυνα κοντά σε έναν γκρεμό όπου τα αυτόνομα όπλα λειτουργούν πέραν των ηθικών ορίων και παρακάμπτουν το διεθνές δίκαιο», έγραψε ο Garrett.
«Σε έναν τέτοιο κόσμο, η παράδοση της εξουσίας στα συστήματα ΑΙ για να αποκτήσουμε τακτικό πλεονέκτημα θα μπορούσε άθελά μας να πυροδοτήσει μια αλυσίδα από γρήγορα κλιμακούμενα, εξαιρετικά καταστροφικά γεγονότα. Σε μια στιγμή, η συλλογική νοημοσύνη του πλανήτη μας θα μπορούσε να εξαλειφθεί».