L’intelligenza artificiale ha creato un nuovo virus che infetta e uccide batteri e c’è chi si interroga sui possibili rischi

A Mit Technology Review, Craig Venter, biologo statunitense (dalla condotta talvolta discutibile, ma questa è un’altra storia) nel 2010 pubblicò un articolo su Science in cui descriveva come per la prima volta avesse ottenuto una cellula con dna sintetico, ha detto: “Un’area in cui esorto alla massima cautela è quella della ricerca sul potenziamento virale, soprattutto quando è casuale e non si sa cosa si otterrà. Se qualcuno lo facesse con il vaiolo o l’antrace, sarei molto preoccupato”.

Va sottolineato che questo primo successo – che, ricordiamolo, deve ancora passare il vaglio della comunità scientifica – non significa che le AI attuali siano pronte a sintetizzare in completa autonomia virus funzionanti né, a maggior ragione, organismi più complessi.

Tuttavia le potenzialità sono così grandi che non si può non interrogarsi sulle possibili distorsioni nell’utilizzo di strumenti tanto potenti. Le Ia stanno imprimendo un’accelerazione sorprendente al progresso bio-tecnologico, fornendo assistenza dalla progettazione all’analisi dei dati. Per loro natura si prestano all’integrazione di diversi strumenti, per esempio modelli linguistici e robot, cosa che riduce ulteriormente le tempistiche di lavoro e semplifica l’attrezzatura e l’esperienza necessarie al conseguimento di un certo obiettivo. Tutte caratteristiche vantaggiose, nel bene così come nel male.

Il Dual Use, l’uso duplice nella ricerca scientifica, è l’espressione con cui si indica la possibilità che la conoscenza e la tecnologia, nate con intenti benefici (quindi per il progresso umano in termini di salute e benessere), possano essere intenzionalmente utilizzate in modo improprio per causare danno. È una questione che non nasce certo oggi con lo sviluppo delle intelligenze artificiali: è sorta con la fisica atomica e nucleare, utilissima a fini civili ma con applicazioni militari devastanti, e si è affermata in modo ancora più prepotente dopo l’11 settembre 2001 e poi con gli attacchi all’antrace che hanno messo sotto gli occhi di tutti gli effetti dell’accessibilità alle moderne biotecnologie. Per citare il parere del nostro Consiglio nazionale delle ricerche (Cnr), non è un problema intrinseco di un artefatto o di un prodotto, ma emerge dalla combinazione tra proprietà fattuali e intenzioni, coinvolgendo una pluralità di attori: ricercatori, editori, enti istituzionali e società civile.

Il Dual Use non è propriamente risolvibile. Quello che si può fare è continuare nella scia di quanto già impostato: formare una cultura della responsabilità condivisa, vigilare, regolamentare. Una proposta è quella di sviluppare protocolli comuni, specifici per i diversi tipi di Ia, per valutare in modo standardizzato le capacità di un certo strumento e i rischi collegati, concentrandosi soprattutto sulle capacità che possono generare danni per il pubblico (come quelle che potrebbero accelerare o semplificare la creazione di costrutti biologici trasmissibili che potrebbero portare a pandemie umane). Vanno stabilite e adottate da tutte le realtà che sviluppano o che utilizzano Ia delle soglie e delle azioni di mitigazione del rischio, per esempio escludere dati pericolosi dall’addestramento delle macchine o limitare l’accesso ai modelli, o ancora sottoporre i modelli a valutazioni terze. Insomma, fare il possibile per ottimizzare il rapporto rischio-beneficio, trovando un equilibrio tra legittime preoccupazioni di sicurezza e necessità di lasciare margine per il dibattito e il progresso scientifico.

Visite totale 1 , 1 visite oggi
Scorri verso l'alto