Ένας πρώην υπάλληλος της OpenAI ισχυρίζεται ότι παραιτήθηκε όταν συνειδητοποίησε ότι η εταιρεία έθετε την ασφάλεια σε δεύτερη μοίρα για να επιδιώξει το κέρδος.
Κατά τη διάρκεια ενός πρόσφατου επεισοδίου στο podcast του τεχνολόγου YouTuber Alex Kantrowitz, ο πρώην μέλος της ομάδας Superalignment, William Saunders, χρησιμοποίησε μια κατάλληλη αναλογία για να εξηγήσει γιατί έφυγε.
«Δεν ήθελα να καταλήξω να δουλεύω για τον Τιτανικό της AI, και γι’ αυτό παραιτήθηκα» είπε. «Κατά τη διάρκεια των τριών ετών μου στην OpenAI, αναρωτιόμουν αν η πορεία της OpenAI έμοιαζε περισσότερο με το πρόγραμμα Apollo ή με τον Τιτανικό».
Ο πρώην υπάλληλος κατηγόρησε την OpenAI ότι «προτεραιοποιεί την κυκλοφορία νέων, λαμπερών προϊόντων» όπως η White Star Line, η πλέον ανενεργή βρετανική ναυτιλιακή εταιρεία που κατασκεύασε τον καταδικασμένο Τιτανικό.
Ανησυχίες για την ανάπτυξη της τεχνητής γενικής νοημοσύνης (AGI)
Τα σχόλιά του αναδεικνύουν τις αυξανόμενες ανησυχίες σχετικά με εταιρείες όπως η OpenAI που αναπτύσσουν συστήματα AI ικανά να υπερβούν τις ικανότητες των ανθρώπων, μια ιδέα γνωστή ως τεχνητή γενική νοημοσύνη (AGI).
Η δέσμευση της OpenAI για ασφάλεια είναι επίσης αμφισβητή όσο αφορά τη συνεχώς μεταβαλλόμενη εταιρική δομή της. Νωρίτερα φέτος, ο CEO της OpenAI, Sam Altman, ανακοίνωσε τη διάλυση της ομάδας Superalignment και την ανάληψη της ηγεσίας από τον ίδιο.
Ο ηγέτης της πρώην ομάδας, πρώην αρχιεπιστήμονας Ilya Sutskever, ανακοίνωσε τον προηγούμενο μήνα ότι ξεκινά μια νέα εταιρεία με το όνομα Safe Superintelligence Inc.
Κριτική για τη διοίκηση της OpenAI και την προτεραιοποίηση του κέρδους
Οι επικριτές έχουν επισημάνει εδώ και καιρό ότι παρά τις δηλώσεις του Altman για ασφαλή υλοποίηση της AGI, η εταιρεία έχει παίξει γρήγορα και χαλαρά με τους κανόνες και έχει προτεραιοποιήσει την κυκλοφορία νέων chatbots, μεγάλους γύρους χρηματοδότησης και συνεργασίες δισεκατομμυρίων δολαρίων με τεχνολογικούς γίγαντες όπως η Microsoft.
«Ακόμα και όταν συνέβαιναν μεγάλα προβλήματα, όπως το Apollo 13, είχαν αρκετή εφεδρεία και μπορούσαν να προσαρμοστούν στην κατάσταση για να φέρουν όλους πίσω με ασφάλεια» είπε ο Saunders στον Kantrowitz.
Η σημασία των λογικών βημάτων για την πρόληψη των κινδύνων
«Δεν είναι δυνατό να αναπτυχθεί η AGI ή οποιαδήποτε νέα τεχνολογία χωρίς κανένα ρίσκο» πρόσθεσε σε ένα email στο Business Insider. «Αυτό που θα ήθελα να δω είναι η εταιρεία να λαμβάνει όλα τα δυνατά βήματα για την πρόληψη αυτών των κινδύνων».