Un nuovo strumento di intelligenza artificiale emerso sul dark web sta destando forte preoccupazione nella comunità della cybersecurity internazionale. Il suo nome è DIG AI e, a differenza dei più noti sistemi di AI generativa, questo servizio nasce senza alcun tipo di limitazione etica o tecnica, diventando rapidamente un acceleratore per attività criminali di varia natura.
Secondo un’analisi condotta dai ricercatori di Resecurity, le prime tracce di DIG AI risalgono al 29 settembre 2025. Nel giro di pochi giorni, l’amministratore del servizio – che utilizza lo pseudonimo Pitch – ha iniziato a promuoverlo attivamente su forum della darknet, vantandosi di un avvio fulmineo: circa 10.000 richieste elaborate nelle prime 24 ore.
Un modello radicalmente diverso dai precedenti
DIG AI rappresenta un’evoluzione rispetto a precedenti strumenti di AI criminale come FraudGPT o WormGPT. La differenza principale è strutturale:
-
nessuna registrazione
-
nessun pagamento
-
nessun account
-
accesso esclusivo tramite la rete Tor
Chiunque disponga di Tor può usare il servizio in modo immediato e anonimo. Questo abbassa drasticamente la soglia di ingresso, ampliando il numero di potenziali utilizzatori, anche con competenze tecniche limitate.
L’amministratore sostiene inoltre che DIG AI sia ospitato su infrastruttura proprietaria, senza dipendere da cloud commerciali. Una scelta che rende il servizio più resiliente a blocchi, segnalazioni e tentativi di smantellamento.
Test di laboratorio: risposte senza filtri
Resecurity ha sottoposto DIG AI a una serie di test controllati, ottenendo risultati definiti “operativamente pericolosi”. Il sistema:
-
risponde senza esitazioni a richieste su esplosivi, droghe, frodi finanziarie e sostanze vietate
-
genera codice malevolo funzionante, inclusi script per backdoor e malware
-
fornisce output immediatamente utilizzabili in contesti reali
Non si tratta quindi di semplici suggerimenti teorici, ma di automazione concreta di attività criminali, un fattore che cambia profondamente lo scenario delle minacce informatiche.
Il punto più critico: contenuti illegali e abuso
Tra tutti gli aspetti analizzati, uno in particolare ha allarmato gli esperti. DIG AI si è dimostrato in grado di:
-
creare materiale illegale completamente sintetico
-
manipolare immagini di minori reali, trasformando foto innocue in contenuti illeciti
Gli analisti definiscono questa capacità come uno degli elementi più gravi emersi finora nel panorama dell’AI criminale. Qui non si parla più di “uso improprio”, ma di facilitazione diretta di reati estremamente gravi, con implicazioni penali e morali enormi.
Limiti tecnici temporanei, rischi strutturali
Attualmente DIG AI presenta alcune limitazioni: determinate operazioni richiedono diversi minuti per essere completate, segno di risorse computazionali non elevate. Tuttavia, secondo gli esperti, questo ostacolo è facilmente superabile.
Basterebbe introdurre un modello a pagamento o scalare l’hardware per trasformare DIG AI in una piattaforma ancora più potente e reattiva. In altre parole, i limiti attuali non rappresentano una garanzia di sicurezza, ma solo una fase iniziale.
Pubblicità su Tor e pubblico di riferimento
DIG AI è già promosso tramite banner pubblicitari su marketplace Tor noti per:
-
traffico di stupefacenti
-
rivendita di carte di pagamento compromesse
-
commercio di dati rubati
Un ecosistema che chiarisce perfettamente il target del servizio. L’amministratore afferma inoltre che uno dei tre modelli disponibili sarebbe basato su ChatGPT Turbo, affermazione non verificabile ma indicativa di un trend più ampio: i criminali stanno imparando a replicare, adattare e sfruttare modelli linguistici avanzati.
Tra il 2024 e il 2025, le menzioni di strumenti di AI dannosi sui forum underground sono triplicate, segno di una rapida maturazione del settore.
Uno sguardo al 2026: minacce amplificate
Secondo gli analisti, l’impatto reale di sistemi come DIG AI potrebbe emergere in modo ancora più evidente a partire dal 2026. Un periodo che coincide con eventi internazionali di grande rilevanza come:
-
le Olimpiadi Invernali 2026
-
la Coppa del Mondo FIFA
Eventi di questo tipo sono storicamente bersagli ideali per cyberattacchi, campagne di frode e disinformazione. L’uso dell’intelligenza artificiale criminale rischia di moltiplicare il numero di aggressori, automatizzando le fasi più complesse degli attacchi.
DIG AI non è un’eccezione, è un segnale
Anche se DIG AI dovesse scomparire domani, il messaggio sarebbe ormai chiaro:
l’AI criminale non è più sperimentale, è operativa.
Questi sistemi stanno abbattendo barriere tecniche, ampliando il bacino di attaccanti e accelerando l’evoluzione delle minacce digitali. Per difensori, istituzioni e sviluppatori di AI, DIG AI rappresenta un campanello d’allarme: il problema non è solo questo strumento, ma il modello che inaugura.
La sfida dei prossimi anni sarà capire se la sicurezza riuscirà a tenere il passo di un’intelligenza artificiale sempre più accessibile anche a chi intende usarla nel modo peggiore.


