Site icon visionedigitale.it

Limiti all’AI: appello globale per evitare rischi

Limiti all'AI: appello globale per evitare rischi

Oltre 200 persone, tra esperti, capi di Stato e premi Nobel, hanno firmato un appello globale per chiedere ai governi di raggiungere un accordo internazionale sui limiti all’uso dell’intelligenza artificiale. È necessario e urgente stabilire le “linee rosse” che non possono essere oltrepassate dai sistemi AI, prima che sia troppo tardi.

Le leggi attuali non sono sufficienti

Tra i firmatari dell’appello ci sono oltre 70 organizzazioni, 10 premi Nobel e 9 ex capi di Stato e primi ministri. L’Italia è rappresentata da Enrico Letta, Giorgio Parisi, Anna Ascani, Maria Grazia Carrozza, Fosca Giannotti, Guido Scorza e altri esperti del settore. Ovviamente c’è la firma di Geoffrey Hinton che ha spesso criticato lo sviluppo incontrollato dell’intelligenza artificiale.

L’appello lettera inizia con queste parole:

L’AI ha un enorme potenziale per migliorare il benessere umano, ma l’attuale traiettoria di sviluppo comporta pericoli senza precedenti. Potrebbe presto superare di molto le capacità umane ed amplificare minacce come pandemie ingegnerizzate, disinformazione diffusa, manipolazione delle persone su larga scala (inclusi i minori), rischi per la sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche dei diritti umani. Alcuni sistemi di AI avanzata hanno già manifestato comportamenti ingannevoli e dannosi. Eppure a questi sistemi viene concessa un’autonomia sempre maggiore nell’agire e nel prendere decisioni nel mondo reale. Molti esperti (compresi coloro che sono in prima linea nel suo sviluppo) avvertono che, se non adeguatamente governata, nei prossimi anni diventerà sempre più difficile garantire un controllo umano effettivo dell’AI.

L’autonomia è riferita agli agenti AI che possono eseguire diverse attività senza intervento umano. I firmatari chiedono quindi ai governi di raggiungere un accordo internazionale entro il 2026 che stabilisca limiti chiari e verificabili per prevenire rischi universalmente inaccettabili.

Le linee rosse che l’AI non deve oltrepassare sono divieti relativi all’uso e al comportamento. Ad esempio, l’AI non deve essere utilizzata per il controllo delle armi nucleari, lo sviluppo e l’uso di armi autonome, la sorveglianza di massa, l’impersonificazione umana, gli attacchi informatici e lo sviluppo di sistemi auto-replicanti.

In Europa è stato approvato l’AI Act che vieta i sistemi di AI con rischi inaccettabili, ma occorre stabilire limiti a livello globale.

Exit mobile version