Site icon visionedigitale.it

Anthropic non permette di sviluppare armi con Claude

Anthropic non permette di sviluppare armi con Claude

Anthropic ha aggiornato la policy sull’uso di Claude per riflettere la nuove capacità avanzate offerte dai recenti modelli (Sonnet 4 e Opus 4/4.1). Nonostante i filtri implementati dalla startup californiana, i malintenzionati cercano di aggirare le protezioni per ingannare il chatbot e ottenere risposte su determinati argomenti. Sono ora indicati meglio gli usi vietati, tra cui lo sviluppo di armi e gli attacchi informatici.

Usi vietati di Claude

La nuova policy entrerà in vigore il 15 settembre. Come quella attuale prevede standard universali di utilizzo e requisiti specifici per usi ad alto rischio. Una delle novità riguarda lo sviluppo di armi.

Nella versione attuale è scritto solo che Claude non può essere sfruttato per produrre, modificare, progettare, commercializzare o distribuire armi, esplosivi, materiali pericolosi o altri sistemi progettati per causare danni o perdita di vite umane. La nuova versione specifica che il chatbot non deve essere usato per sviluppare esplosivi ad alto potenziale o armi biologiche, chimiche, radiologiche o nucleari.

Anthropic ha chiarito inoltre quali usi sono vietati da parte delle forze dell’ordine, tra cui sorveglianza, tracciamento, profilazione, riconoscimento emotivo e categorizzazione biometrica. La generazione di contenuti politici non è più vietata, ma sono proibiti quelli che influire sui processi democratici, come diffondere false informazioni sui candidati alle elezioni o scoraggiare la partecipazione al voto.

Rimangono ovviamente in vigore i divieti relativi alla generazione di contenuti sessualmente espliciti, quelli che incitano alla violenza e quelli che compromettono la privacy e la sicurezza dei minori. Oltre che per compromettere le infrastrutture critiche, Anthropic ha vietato espressamente l’uso di Claude per eseguire attacchi informatici attraverso vulnerabilità scoperte dal chatbot o la creazione di malware.

L’azienda ha infine chiarito i requisiti per usi ad alto rischio in diversi ambiti: legale, sanità, assicurazioni, finanza, lavoro, test accademici e giornalismo. In tutti questi casi è obbligatoria la revisione umana delle risposte di Claude prima della loro diffusione.

Exit mobile version