Secondo il PLA Daily, la voce ufficiale dell’Esercito Popolare di Liberazione, i robot soldato potrebbero uccidere chiunque, ovunque, senza controllo.
I robot soldato uccideranno tutti, i timori della Cina
Tre esperti militari cinesi, Yuan Yi, Ma Ye e Yue Shiguang, hanno firmato un articolo che suona come un grido d’allarme. I robot umanoidi da guerra, scrivono, violano i principi morali fondamentali dell’umanità. Persino la famosa Prima Legge di Asimov viene calpestata: Un robot non può portare danno a un essere umano
.
Il problema, è che questi robot sono progettati proprio per fare il contrario. E secondo gli esperti cinesi, il loro uso massivo potrebbe portare a decessi accidentali
, omicidi incontrollati
e una totale confusione sulle responsabilità. Chi sarà colpevole quando un robot ucciderà il bersaglio sbagliato?
Dietro questo appello alla moderazione si nasconde però un fatto spiazzante. La stessa Cina che lancia l’allarme sta pianificando di produrre oltre 10.000 robot umanoidi militari entro la fine del 2025. Un numero colossale che rappresenta metà della produzione mondiale.
Aziende come Unitree, AgiBot ed EngineAI stanno sfornando macchine sempre più agili: camminano, corrono, saltano, sollevano pesi. Alcuni riescono persino a fare salti mortali. Ma il loro vero scopo non è impressionare ai talent show: è sostituire i soldati in carne e ossa sui campi di battaglia.
Perché gli eserciti li vogliono a tutti i costi
Nonostante siano costosi, lenti e fragili, i robot umanoidi affascinano i generali di tutto il mondo. Il motivo è semplice: possono fare tutto quello che fa un soldato umano, ma senza provare paura, dolore o rimorso. Possono salire le scale, aprire porte, maneggiare armi. E soprattutto, possono essere sacrificati senza problemi di coscienza.
In una ipotetica invasione di Taiwan, questi robot potrebbero essere mandati in prima linea per testare le difese nemiche, sminare zone pericolose, assorbire il fuoco avversario. Un uso cinico ma tatticamente perfetto: meglio perdere mille robot che cento soldati.
L’ipocrisia americana, ma non solo
Mentre la Cina esprime dubbi morali, gli Stati Uniti fanno esattamente il contrario. Nel 2018, Google prometteva solennemente che i suoi sistemi AI non sarebbero mai state usate per scopi militari. Sette anni dopo, quella promessa è sparita e Google lavora con Lockheed Martin su progetti di intelligenza artificiale tattica.
OpenAI, l’azienda dietro ChatGPT, ha seguito la stessa strada. Dopo aver vietato qualsiasi uso militare dei suoi strumenti, nel 2025 ha firmato un contratto da 200 milioni di dollari con il Pentagono. Ufficialmente per la “sicurezza nazionale“, ma il confine con l’uso offensivo è sottilissimo.
Microsoft alimenta sistemi militari israeliani attraverso il cloud Azure, alcuni dei quali vengono usati per il targeting automatico. Amazon partecipa al Project Nimbus, un contratto da 1,2 miliardi con Israele dove l’AI viene utilizzata per sorvegliare e neutralizzare obiettivi.
Anche Parigi ha accelerato sui robot da guerra. Nel 2024 ha creato l’agenzia AMIAD con 300 milioni di euro all’anno per sviluppare algoritmi militari sovrani. L’obiettivo: equipaggiare l’esercito francese con AI capaci di pianificare, rilevare e neutralizzare.
Thales, il colosso della difesa francese, sviluppa sistemi di sminamento autonomo e droni sottomarini che possono individuare e distruggere mine senza intervento umano. Nel 2025 ha consegnato insieme agli inglesi una flotta di questi robot subacquei. Anche Mistral AI, l’azienda di Le Chat, fornisce già modelli all’esercito francese.
Un diritto internazionale che non esiste
Di fronte a questa corsa agli armamenti robotici, le leggi internazionali sono completamente inadeguate. L’AI Act europeo esclude completamente gli usi militari. Le Nazioni Unite parlano da anni di regolare le armi letali autonome
, ma senza risultati concreti.
Il risultato è un far west digitale dove ogni paese fa quello che vuole. Chi sarà responsabile quando un robot ucciderà un civile per errore? Il produttore, il soldato, lo Stato, l’algoritmo? Nessuno lo sa, e gli eserciti sfruttano questa confusione per andare avanti senza ostacoli.
L’ironia finale è che sia proprio la Cina, tradizionalmente poco interessata ai diritti umani, a chiedere per prima un controllo etico globale. Forse perché sa bene che quando si scatena un mostro, non si può più controllare chi divora.