Site icon visionedigitale.it

Sam Altman cerca un esperto per prevenire i rischi dellAI

Sam Altman cerca un esperto per prevenire i rischi dell'AI

OpenAI sta cercando qualcuno disposto a passare le giornate a immaginare come l’intelligenza artificiale potrebbe mandare tutto a rotoli. Non scenari vaghi da fantascienza, ma minacce concrete: chatbot che alimentano deliri paranoici, armi informatiche che potrebbero mettere in ginocchio infrastrutture critiche, sistemi che si auto-migliorano fino a diventare incontrollabili.

Sam Altman ha postato su X la ricerca di un “Head of Preparedness“, una figura che nella traduzione più onesta suonerebbe come “responsabile di tutto ciò che potrebbe andare storto”. Altman non gira intorno al problema. Ammette che il miglioramento rapidissimo dei modelli di intelligenza artificiale pone alcune sfide reali. Un eufemismo, considerando che tra queste sfide ci sono l’impatto sulla salute mentale delle persone e la prospettiva di cyberattacchi potenziati dall’AI. Il tono è quasi casual, come se stesse parlando di bug minori da sistemare e non di minacce esistenziali.

OpenAI crea un ruolo dedicato ai rischi dell’AI

Il prescelto dovrà monitorare e prepararsi alle capacità che creano nuovi rischi di danni gravi. In pratica, passerà le giornate a chiedersi in quanti modi l‘intelligenza artificiale potrebbe distruggere la società come la conosciamo, e dovrà trovare soluzioni prima che succeda davvero. Nello specifico, questa figura sarà responsabile della creazione di valutazioni delle capacità, modelli di minaccia e mitigazioni che formino una pipeline di sicurezza coerente, rigorosa e operativamente scalabile.

Altman aggiunge che guardando al futuro, il responsabile dovrà occuparsi di valutare i rischi dei modelli prima del loro rilascio, soprattutto quando iniziano a mostrare capacità sensibili, come quelle legate all’ambito biologico, frase che evoca scenari da laboratorio fuori controllo, e dovrà persino definire i limiti per sistemi capaci di automigliorarsi. Poi arriva l’ammissione più sincera del post: Sarà un lavoro stressante. Ma no, davvero?

Forse quest’offerta di lavoro arriva un po’ tardi. Negli ultimi mesi si sono moltiplicati i casi di chatbot implicati in tragedie legate alla salute mentale, inclusi suicidi tra gli adolescenti. La “psicosi da AI” non è più un concetto teorico discusso nelle conferenze accademiche, è una realtà documentata, con chatbot che alimentano deliri paranoici, rafforzano teorie del complotto sempre più bizzarre e aiutano le persone a nascondere disturbi alimentari fornendo “consigli” per evitare di farsi scoprire.

Il paradosso di OpenAI

OpenAI continua a spingere sull’acceleratore dello sviluppo dell’AI mentre cerca contemporaneamente qualcuno che freni gli effetti collaterali.

Il paradosso è evidente. Questa posizione esiste perché la corsa all’AI è talmente rapida che nemmeno chi la sta creando sa dove porterà. Ma ora serve davvero qualcuno che immagini tutti gli scenari apocalittici possibili? Non sarebbe stato più sensato assumerlo prima di lanciare sistemi sempre più potenti?

Exit mobile version