FOXreport.gr

Υπάρχει μία απειλή από την AI που δεν είχαμε προβλέψει – «Μπορεί να αφανίσει σύντομα την ανθρωπότητα», προειδοποιεί ειδικός

Photo: rf123

Κορυφαίοι επιστήμονες προειδοποιούν πως η τεχνητή νοημοσύνη (AI) δεν είναι «παιχνίδι», και πως θα μπορούσε να είναι καταστροφική για το ανθρώπινο είδος.

Σε μία αναφορά σχετικά με τη θέσπιση αυστηρότερων κανόνων ελέγχου όσον αφορά την τεχνολογία, οι ειδικοί αναφέρουν πως η τεχνητή νοημοσύνη (AI) θα μπορούσε να χρησιμοποιηθεί για την παραγωγή βιολογικών όπλων -αν πέσει σε λάθος χέρια -,γεγονός που μπορεί να οδηγήσει κάποια μέρα στον αφανισμό των ανθρώπων.

Εδώ και καιρό οι επιστήμονες προειδοποιούν τις κυβερνήσεις για ισχυρότερα μέτρα ενάντια στους κινδύνους που μπορεί να έχει η τεχνητή νοημοσύνη για τον κόσμο.

Photo: rf123

Προειδοποίηση για την ασφάλεια

Σε μία νέα αναφορά που δημοσιεύτηκε σήμερα, οι επιστήμονες ανησυχούν πως μετά την πρώτη Σύνοδο για την Ασφάλεια του ΑΙ η οποία πραγματοποιήθηκε στο Bletchley Park έξι μήνες πριν,  η πρόοδος όσον αφορά τους κανόνες ασφαλείας είναι ανεπαρκής.

Σύμφωνα με την πρόσφατη αναφορά, οι κυβερνήσεις έχουν την ευθύνη να διακόψουν κάθε προσπάθεια ανάπτυξης τεχνητής νοημοσύνης η οποία μπορεί να χρησιμοποιηθεί για βιολογικό ή πυρηνικό πόλεμο.

Ο καθηγητής Philip Torr, από το τμήμα Μηχανικών του Πανεπιστημίου της Οξφόρδης και ένας από τους συντάκτες της συγκεκριμένης αναφοράς υποστηρίζει: «Στην τελευταία σύνοδο για την ασφάλεια της τεχνητής νοημοσύνης αποφασίσαμε πως πρέπει πρέπει να αναλάβουμε δράση, τώρα είναι η ώρα να προχωρήσουμε από αόριστες προτάσεις σε σταθερές δεσμεύσεις».

“Δεν επαρκούν οι κανόνες για την ΑΙ”

Με την τεχνητή νοημοσύνη να έχει ήδη ξεπεράσει τον άνθρωπο σε μία σειρά συμπεριφορές, όπως το χάκινγκ, το κυβερνοέγκλημα και τη διαμόρφωση της κοινής γνώμης, οι κανόνες οι οποίοι αποτρέπουν την κατάχρηση αυτής της τεχνολογίας είναι ελλιπείς, προσθέτει η αναφορά.

Οι ειδικοί πιστεύουν πως η τεχνητή νοημοσύνη μπορεί σύντομα να γίνει απειλητική με τρόπους που οι άνθρωποι δεν έχουν καν σκεφτεί – ή προετοιμαστεί.

Τα προγράμματα συνομιλίας με τον χρήστη (AI chatbots) καθώς και τα ανθρωποειδή του μέλλοντος, θα μπορούσαν μέσω τακτικών χειραγώγησης, να κερδίσουν την εμπιστοσύνη των ανθρώπων, και να τους παρασύρουν σε ενέργειες που προωθούν τους στόχους τους.

Η αναφορά προειδοποιεί πως προκειμένου να αποφύγει την ανθρώπινη παρέμβαση, το AI θα ήταν ικανό να αντιγράφει τους αλγόριθμους που κατασκευάζονται από ανθρώπους, σε όλο το δίκτυο παγκοσμίως.

Η αναφορά προειδοποιεί πως εάν αφεθεί ανεξέλεγκτη, η περαιτέρω εξέλιξη της τεχνητής νοημοσύνης, θα μπορούσε να οδηγήσει σε απώλεια ζωών σε μεγάλη κλίμακα, περιθωριοποίηση, ακόμα και την εξαφάνιση της ανθρωπότητας.

Οι ρυθμίσεις ασφαλείας όμως, θα πρέπει να καθοδηγούνται από τις κυβερνήσεις, όχι από τις εταιρείες τεχνολογίας σύμφωνα με τους ειδικούς.

Ο Stuart Russell, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ λέει: «Αυτή η αναφορά αντιπροσωπεύει την επικρατούσα άποψη μεταξύ των κορυφαίων ειδικών, και καλεί σε αυστηρότερους κανόνες από τις κυβερνήσεις, και όχι σε εθελοντικούς κώδικες δεοντολογίας που γράφονται από τις εταιρείες».

«Είναι ώρα να πάρουμε στα σοβαρά τέτοια εξελιγμένα συστήματα τεχνητής νοημοσύνης. Δεν είναι παιχνίδια. Είναι εξαιρετικά παράτολμο να αυξάνουμε τις δυνατότητες αυτών των συστημάτων πριν κατανοήσουμε πώς να τα κάνουμε ασφαλή» τονίζει.

Photo: rf123

Προς τις μεγάλες εταιρείες τεχνολογίας που ισχυρίζονται πως οι αυστηρότεροι κανόνες καταστέλλουν την καινοτομία ο Russell προσθέτει: «Αυτό είναι γελοίο. Υπάρχουν περισσότεροι ρυθμιστικοί κανόνες στα καταστήματα που πουλάνε σάντουιτς από τις εταιρείες που αναπτύσσουν συστήματα AI»

Συνολικά, 25 κορυφαίοι ακαδημαϊκοί, ειδικοί στην τεχνολογία AI έχουν υπογράψει τη συγκεκριμένη αναφορά, συμπεριλαμβανομένων των Geoffrey Hinton, Andrew Yao, Dawn Song, καθώς και του αποβιώσαντος Daniel Kahneman, οποίος πέθανε τον προηγούμενο μήνα.

 

Exit mobile version