Si può sostenere con buoni argomenti che per essere efficace la sicurezza nazionale richieda le migliori tecnologie delle aziende più innovative di un paese. Mentre fino a pochi anni fa diverse società tech avevano riserve a lavorare con il Pentagono, nel 2026 le aziende del settore sono in genere entusiaste all’idea di diventare appaltatori militari. E se da una parte non ho ancora sentito nessun dirigente di un’azienda AI esprimersi sulla possibilità che i suoi modelli siano associati alla forza letale, c’è anche chi come l’amministratore delegato di Palantir Alex Karp non si fa problemi a dire con apparente orgoglio cose come: “Il nostro prodotto a volte viene usato per uccidere delle persone“.
Gli Stati Uniti potrebbero anche riuscire a usare con impunità i muscoli della loro AI contro un paese come il Venezuela. Ma quando gli avversari più sofisticati si sentiranno costretti a fare altrettanto, il risultato sarà una corsa agli armamenti a tutto campo. E a quel punto il governo americano avrà probabilmente poca pazienza per le aziende di AI che si impuntano su eccezioni o distinzioni giuridiche sulla definizione di “uso legale” in merito a una pratica letale (a maggior ragione se si tratta di un governo che si sente in diritto di ridefinire la legge per giustificare quelli che molti considerano crimini di guerra). La dichiarazione del Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere.
Una visione di questo tipo potrà anche avere senso per il Pentagono, ma spinge gli sforzi per creare un’AI sicura nella direzione sbagliata. Se si sviluppa una forma di intelligenza artificiale che non faccia del male alle persone, è controproducente lavorare anche su versioni che offrono la forza letale. Solo pochi anni fa, governi e dirigenti del settore tecnologico discutevano seriamente di organismi internazionali in grado di aiutare a monitorare e limitare gli usi dannosi dell’AI. Oggi non se ne parla più molto. Che il futuro della guerra sia l’AI è ormai scontato. E ancora più spaventoso è il fatto che il futuro della stessa AI potrebbe essere più aperto alle violenze che di solito si vedono nelle guerre, se le aziende che la producono e le nazioni che la utilizzano non si preoccupano di contenere la tecnologia.
L’ inquietante futuro dell’AI?
Da tempo penso che l’ascesa della tecnologia digitale sia la storia più importante del nostro tempo. Mentre i politici, i regimi e persino i paesi possono andare e venire, la trasformazione dell’umanità da parte della tecnologia è irreversibile. Quando Trump è diventato per la prima volta presidente degli Stati Uniti nel 2016, ho esposto questa teoria in un articolo intitolato L’iPhone è più grande di Donald Trump. Dopo la sua rielezione nel 2024 ho scritto un seguito, sostenendo che l’intelligenza artificiale fosse un agente del caos più grande del presidente. Nel lungo periodo, era la mia tesi, la scienza vince persino su Trump.
Ora quella teoria sembra vacillare un po’ di più. Il futuro potrebbe dipendere da chi è al comando dell’AI e da come decide di plasmarla e sfruttarla. Mentre si ammantano di patriottismo e cercano accordi con il Pentagono, i signori dell’intelligenza artificiale stanno anche consegnando una tecnologia spaventosamente potente e imprevedibile a un governo e a un ministero che rifiuta ogni idea di supervisione. Cosa ne penserebbe Asimov?
Questo articolo è apparso originariamente su Wired US.

