C’è un contratto da 200 milioni di dollari sul tavolo, e il Pentagono sta minacciando di stracciarlo. Dall’altra parte, Anthropic, l’azienda che ha costruito la propria identità sulla sicurezza e sull’etica dell’intelligenza artificiale, sta cercando di tenere duro. La posta in gioco non sono solo i soldi, è il confine tra ciò che un’AI può e non può fare in ambito militare. E quel confine, a quanto pare, è diventato terreno di scontro aperto.
Anthropic resiste alle richieste del Pentagono di usare Claude senza restrizioni
Secondo un report di Axios, il Dipartimento della Difesa americano sta facendo pressione sulle principali aziende di AI, Anthropic, OpenAI, Google e xAI, affinché consentano all’esercito statunitense di utilizzare la loro tecnologia per tutti gli scopi legali
. Una formula decisamente ampia, in pratica significherebbe togliere ogni paletto sull’uso militare dei modelli linguistici.
Secondo una fonte anonima dell’amministrazione Trump, una delle quattro aziende ha già accettato le condizioni. Altre due avrebbero mostrato una certa flessibilità. Anthropic, invece, sarebbe quella che oppone la resistenza più forte.
Il Pentagono, secondo Axios, avrebbe minacciato di rescindere il contratto da 200 milioni di dollari. Una somma del genere non si rifiuta con leggerezza, soprattutto in un settore dove i costi operativi sono enormi e la corsa al finanziamento è spietata. Ma accettare condizioni che contraddicono i propri principi fondamentali è comunque un danno, diverso, ma potenzialmente più profondo.
Le linee rosse di Anthropic
Un portavoce di Anthropic ha dichiarato ad Axios che l’azienda non ha discusso l’uso di Claude per operazioni specifiche con il Pentagono. L’azienda ha specificato che il confronto riguarda un insieme specifico di domande sulla Policy d’Uso, in particolare, i limiti invalicabili sulle armi completamente autonome e sulla sorveglianza di massa domestica.
Armi autonome e sorveglianza di massa: queste sono le linee rosse dichiarate da Anthropic. Non è un rifiuto totale dell’uso militare, Claude è già stato utilizzato, secondo il Wall Street Journal, nell’operazione militare statunitense per catturare l’allora presidente venezuelano Nicolás Maduro. Il confine che Anthropic sta difendendo sono i limiti etici.
Cosa farà Anthropic?
La questione è più grande di un singolo contratto. Se il Pentagono riesce a imporre condizioni d’uso illimitate alle aziende di AI, il precedente varrà per tutto il settore. Se Anthropic cede, i suoi principi etici e le promesse di sviluppo responsabile diventano carta straccia. Se resiste e perde il contratto, dimostra coerenza ma rinuncia a una fetta enorme di finanziamento, e potenzialmente cede terreno a concorrenti meno scrupolosi che prenderebbero quei soldi senza battere ciglio.

