Di fronte a queste preoccupazioni, i firmatari chiedono che lo sviluppo di sistemi di AI generale venga limitato fino a quando non esisterà un ampio consenso scientifico sulla loro sicurezza e controllabilità, insieme a una diffusa accettazione pubblica.
Mark Beall, ex direttore della strategia e delle politiche sull’AI del dipartimento della Difesa degli Stati Uniti e uno dei firmatari, sottolinea: “Quando i ricercatori di intelligenza artificiale avvertono del rischio di estinzione e i leader tecnologici costruiscono bunker per scenari catastrofici, la prudenza impone di ascoltarli. La superintelligenza senza le dovute salvaguardie potrebbe rappresentare la massima espressione dell’arroganza umana: un potere privo di limiti morali”.
L’iniziativa è stata promossa dal Future of Life Institute, un’organizzazione no-profit che da oltre un decennio analizza i rischi su larga scala associati all’intelligenza artificiale, con l’obiettivo di orientarne lo sviluppo a beneficio dell’umanità.
Due anni fa, la stessa istituzione aveva pubblicato una lettera firmata da numerosi esperti di tecnologia che chiedeva una pausa nello sviluppo di sistemi di AI più potenti. La nuova proposta, invece, invoca un divieto totale e si distingue per il numero e la varietà dei suoi firmatari.
Dubbi e preoccupazioni sullo sviluppo dell’AI generale
Il comunicato sostiene che, almeno negli Stati Uniti, esiste un diffuso malcontento verso l’accelerato progresso dell’intelligenza artificiale e la mancanza di regolamentazioni solide. Cita un sondaggio recente condotto su duemila adulti statunitensi, secondo il quale solo il 5% degli intervistati approva lo sviluppo rapido e scarsamente regolato di questa tecnologia.
Al contrario, il 64% degli intervistati ritiene che la superintelligenza AI non dovrebbe essere sviluppata finché non sarà dimostrato che è sicura e controllabile. Inoltre, il 73% si è dichiarato favorevole a una regolamentazione rigorosa dei sistemi avanzati di intelligenza artificiale.
Yoshua Bengio precisa che “per avanzare in modo sicuro verso la superintelligenza, dobbiamo determinare scientificamente come progettare sistemi di AI che siano intrinsecamente incapaci di danneggiare le persone, sia per disallineamento sia per uso malevolo. Dobbiamo garantire che i cittadini abbiano una partecipazione molto più forte nelle decisioni che definiranno il nostro futuro collettivo”.
Gli esperti del settore sostengono che lo sviluppo di algoritmi di AI generale sia più vicino di quanto previsto. Elon Musk, amministratore delegato di xAI, prevede che le capacità dell’intelligenza artificiale supereranno l’intelletto umano tra la fine di quest’anno e l’inizio del 2026. Demis Hassabis, cofondatore di DeepMind di Google, ha affermato a febbraio che questi programmi avanzati potrebbero diventare realtà entro il 2030, mentre Jensen Huang, amministratore delegato di Nvidia, ha stimato che il prossimo grande balzo dell’AI avverrà nei prossimi cinque anni.


