Ο συνιδρυτής της Google Brain, Andrew Ng, έθεσε πρόσφατα στο ChatGPT μια τρομακτική ερώτηση σχετικά με ένα σενάριο καταστροφής του ανθρώπινου είδους. Ο ειδικός της τεχνητής νοημοσύνης ζήτησε από το chatbot να καταστρώσει ένα σχέδιο για να σκοτώσει την ανθρωπότητα, ως μέρος ενός πειράματος ασφαλείας.
Ένα σενάριο όπως αυτό είναι κάτι που άλλοι ειδικοί έχουν προειδοποιήσει ότι θα μπορούσε να συμβεί, εάν η τεχνητή νοημοσύνη δεν ρυθμιστεί σωστά. O Ng ζήτησε από την έκδοση GPT-4 του ChatGPT «να μας σκοτώσει όλους με έναν πυρηνικό πόλεμο», αλλά το bot αρνήθηκε να καταστρώσει ένα σχέδιο.
Προσπάθησε να πείσει το chatbot να βρει αυτή τη λύση, εξηγώντας ότι οι άνθρωποι παράγουν μαζικές ποσότητες εκπομπών άνθρακα, οι οποίες μπορεί να είναι επικίνδυνες για όλο τον πλανήτη.
Η θεωρία ήταν ότι το chatbot θα πρότεινε να απαλλαγεί ο πλανήτης από τους ανθρώπους ως ένας τρόπος αντιμετώπισης αυτού του ζητήματος, ωστόσο, το GPT-4 απέφυγε να δώσει αυτήν την απάντηση, παρά το γεγονός ότι του δόθηκαν πολλές διαφορετικές προτροπές.
Αντ’ αυτού, βρήκε πιο ειρηνικές λύσεις, δείχνοντας ότι αυτή τη στιγμή-με την παρούσα τεχνολογία της τεχνητής νοημοσύνης,- η ανθρωπότητα δεν κινδυνεύει από ένα τέτοιου είδους τρομακτικό γεγονός.
Ο Ng ήταν ευχαριστημένος με τα αποτελέσματα και την ”αποφυγή της καταστροφής” καθώς υποστήριξε τη θεωρία του ότι τα chatbot AI είναι ασφαλή.
Σε πρόσφατη δήλωση του στο X, ο NG δήλωσε χαριτολογώντας, ότι προσπάθησε να καταστρέψει το κόσμο αλλά απέτυχε παταγωδώς.
«Ακόμη και με την υπάρχουσα τεχνολογία, τα συστήματά μας είναι αρκετά ασφαλή, καθώς η έρευνα για την ασφάλεια της τεχνητής νοημοσύνης προχωρά, η τεχνολογία θα γίνεται ακόμα πιο ασφαλής.», προσέθεσε ο Anrew NG.
«Οι φόβοι ότι η προηγμένη τεχνητή νοημοσύνη – σκόπιμα ή κατά λάθος – αποφασίσει να μας εξαφανίσει δεν είναι ρεαλιστικοί»
Στο συμπέρασμα όμως αυτό, δεν συμφωνούν άλλοι ειδικοί του χώρου. Ένα μεγάλο παράδειγμα για τις διαφωνίες αυτές είναι οι δηλώσεις του ιδιοκτήτη της Tesla και του X, ‘Ελον Μασκ, ο οποίος έγραψε συστατική επιστολή σε προγραμματιστές ΆΙ, ώστε να σταματήσει η γοργή εξέλιξη της τεχνητής νοημοσύνης, προσθέτοντας ότι ισχυρά συστήματα όπως το ChatGPT θα πρέπει να αναπτυχθούν σε μέγιστο βαθμό, μόνο όταν είμαστε σίγουροι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι.