FOXreport.gr

Anthropic: Φέρνει νέους ΑΙ κανόνες για να αντιμετωπίσει τις αυξανόμενες ανησυχίες σχετικά με την ασφάλεια

Φώτο: note.com

Η startup τεχνητής νοημοσύνης, Anthropic, έχει ενημερώσει την πολιτική χρήσης για το chatbot της Claude, ως απάντηση στις αυξανόμενες ανησυχίες για την ασφάλεια. Εκτός από την εισαγωγή αυστηρότερων κανόνων κυβερνοασφάλειας, η Anthropic τώρα καθορίζει συγκεκριμένα μερικά από τα πιο επικίνδυνα όπλα που οι άνθρωποι δεν θα πρέπει να αναπτύσσουν χρησιμοποιώντας την Claude.

Η Anthropic δεν επισημαίνει τις τροποποιήσεις που έγιναν στην πολιτική όπλων στην ανάρτηση που συνοψίζει τις αλλαγές, αλλά η σύγκριση μεταξύ της παλιάς πολιτικής χρήσης της εταιρείας και της νέας αποκαλύπτει μια αξιοσημείωτη διαφορά.

Anthropic: Αυστηρότερα μέτρα ασφαλείας

Τον Μάιο, η Anthropic εισήγαγε την προστασία «AI Safety Level 3» παράλληλα με την κυκλοφορία του νέου μοντέλου Claude Opus 4. Τα μέτρα ασφαλείας έχουν σχεδιαστεί για να κάνουν το μοντέλο πιο δύσκολο στο jailbreak, καθώς και για να βοηθήσουν στην πρόληψη της συνδρομής του στην ανάπτυξη όπλων CBRN.

Στην ανάρτησή της, η Anthropic αναγνωρίζει επίσης τους κινδύνους που θέτουν τα εργαλεία agentic AI, συμπεριλαμβανομένου του Computer Use, που επιτρέπει στην Claude να αναλάβει τον έλεγχο του υπολογιστή ενός χρήστη, καθώς και του Claude Code, ενός εργαλείου που ενσωματώνει την Claude απευθείας στο τερματικό ενός προγραμματιστή.

Νέες απαγορεύσεις και πολιτική για πολιτικό περιεχόμενο

Η startup ανταποκρίνεται σε αυτούς τους πιθανούς κινδύνους ενσωματώνοντας μια νέα ενότητα «Do Not Compromise Computer or Network Systems» στην πολιτική χρήσης της. Αυτή η ενότητα περιλαμβάνει κανόνες κατά της χρήσης της Claude για την ανακάλυψη ή εκμετάλλευση ευπαθειών, τη δημιουργία ή διανομή κακόβουλου λογισμικού, την ανάπτυξη εργαλείων για επιθέσεις άρνησης υπηρεσίας και άλλα.

Επιπλέον, η Anthropic χαλαρώνει την πολιτική της γύρω από το πολιτικό περιεχόμενο. Αντί να απαγορεύει τη δημιουργία κάθε είδους περιεχομένου που σχετίζεται με πολιτικές καμπάνιες και λόμπινγκ, η Anthropic πλέον θα απαγορεύει μόνο τη χρήση της Claude για «περιπτώσεις χρήσης που είναι παραπλανητικές ή διαταράσσουν τις δημοκρατικές διαδικασίες ή περιλαμβάνουν στοχοποίηση ψηφοφόρων και προεκλογικών εκστρατειών».

Η εταιρεία διευκρίνισε επίσης ότι οι απαιτήσεις της για όλες τις «high-risk» χρήσεις, που ισχύουν όταν οι άνθρωποι χρησιμοποιούν την Claude για να κάνουν συστάσεις σε άτομα ή πελάτες, εφαρμόζονται μόνο σε σενάρια που απευθύνονται στον καταναλωτή και όχι για επιχειρηματική χρήση.

Exit mobile version