L’Unione delle camere dei penalisti italiani (Ucpi) ha espresso gravi riserve sulla scelta di affidare “interamente” al Governo la “regolazione dell’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari, pur nel richiamo al rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza (…) Emerge ora infatti l’esigenza di declinare procedure e schemi che, nell’uso dei sistemi di AI nelle indagini preliminari, non siano meramente formali e possano restituire informazioni trasparenti, cioè spiegabili dal punto di vista del metodo scientifico e quindi verificabili e confutabili”.
Altre problematiche permangono, per esempio a seguito della riformulazione dell’articolo relativo all’impiego dell’intelligenza artificiale nell’attività giudiziaria. Dal testo è scomparsa la limitazione dell’utilizzo dei sistemi artificiali “per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale” e viene rimesso alla competenza del ministero della Giustizia la disciplina degli “impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie”, oltre al potere di “autorizzarne” la sperimentazione nei Tribunali fino alla emanazione del decreto ministeriale, e di fissare linee programmatiche per la formazione di magistrati (cosa ha da dire la Scuola superiore della Magistratura?) e personale amministrativo.
Viene comunque rafforzata la “clausola di riserva” al giudice della sentenza.
Il magistrato Claudio Castelli, in Questione Giustizia, ha evidenziato l’eccessiva ampiezza e genericità dei criteri direttivi delle deleghe al governo per la disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale; per un’apposita disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia; e – come abbiamo già evidenziato- per la regolazione dell’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari.
Negli studi legali l’AI è ammessa solo per attività strumentali/di supporto e viene specificato che il lavoro intellettuale deve risultare prevalente. Il cliente dovrà sempre essere informato ma l’avvocato (e il professionista) potrà parametrare il compenso in base all’utilizzo di questi sistemi. Di certo, non sarà facile, né rilevare gli eventuali inadempimenti né misurare “l’apporto umano”. E di “criticità” parla l’Organismo congressuale forense (Ocf), preoccupato però solo del fatto che gli avvocati possano venire spodestati della funzione difensiva.
Uso secondario dei dati sanitari senza pareri etici
Apprezzamento è stato espresso da Aindo, società che ha sviluppato e brevettato una piattaforma di generazione di dati sintetici che abilita l’uso di dati sensibili nel rispetto della privacy, per la quale la legge “rappresenta un punto di svolta per l’Italia, che ci proietta in una nuova era della sanità digitale. Per la prima volta, il riutilizzo dei dati sanitari per l’addestramento dei modelli di intelligenza artificiale viene riconosciuto come di rilevante interesse pubblico, superando i paradigmi normativi tradizionali e liberando un potenziale enorme per l’innovazione in ambito medico”.
Per i pazienti, basterà fornire una informativa pubblica mentre per tutti i dettagli occorre aspettare i due decreti del ministro della Salute, che dovrà disciplinare anche il fascicolo sanitario elettronico, i sistemi di sorveglianza del settore sanitario e, più in generale, il governo della sanità digitale. E tuttavia ci appare contraddittorio l’aver soppresso l’obbligo del parere dei comitati etici per trattamenti dati a fini di ricerca sanitaria, riducendo così il precedente livello di garanzia.