ChatGPT alla Camera: cosa ha detto il responsabile di OpenAI

Facebook
WhatsApp
Twitter
LinkedIn
Telegram

ChatGPT alla Camera: quale sarà l’impatto dell’intelligenza artificiale sull’occupazione? Quali invece le implicazioni per il processo democratico? È stato fatto abbastanza per garantire la necessaria trasparenza durante la fase di sviluppo e di implementazione di uno strumento come ChatGPT? Sono queste le domande poste da Anna Ascani, Vicepresidente della Camera dei Deputati, durante l’audizione di OpenAI in Parlamento.

A rispondere è stata Anna Makanju, Leading Public Policy dell’organizzazione statunitense, già figura chiave nel confronto con il Garante Privacy che, nei mesi scorsi, ha permesso di riabilitare l’accesso al servizio in seguito a uno stop temporaneo dovuto alle modalità di trattamento dei dati raccolti.

ChatGPT alla Camera: L’audizione di OpenAI alla Camera dei Deputati

La replica fornita al primo quesito è, sinteticamente: Questo strumento elimina compiti e mansioni, non posti di lavoro. Il mantra ripetuto è lo stesso di sempre, l’obiettivo dichiarato è consentire alle aziende di incrementare la produttività, stimolando la creazione di nuove figure professionali alle quali saranno associate competenze inedite. Quasi inevitabilmente, altri ruoli sembrano destinati a scomparire.

Nella sua esposizione, Makanju ha fatto riferimento anche al celebre caso degli avvocati che si sono rivolti al chatbot per la stesura di un testo portato poi in tribunale, senza accertare la veridicità di quanto restituito dalla conversazione con ChatGPT. Un esempio di come, senza un’attività di controllo e revisione, i risultati prodotti dagli algoritmi possano mostrare il fianco al fenomeno delle cosiddette allucinazioni, distorsioni impreviste che OpenAI sta cercando di contenere e gestire.

A proposito del fattore trasparenza, i margini di miglioramento non mancano e l’organizzazione li riconosce. Ad oggi, il problema più gravoso da affrontare è quello costituito dal rapporto tra i dati immessi nel modello e il suo comportamento effettivo. In altre parole, gli stessi creatori di GPT ammettono che non sempre il complesso sistema agisce con le modalità attese. Quali potrebbero essere le conseguenze? Nessun cenno a tal proposito, ma solo poche settimane fa Sam Altman ha firmato un appello in cui si invita a prendere seriamente in considerazione il pericolo di estinzione per l’intero genere umano.

Solo sfiorata la terza delle domande citate in apertura, nonostante il CEO dell’organizzazione abbia definito concrete le minacce inerenti a un abuso dell’intelligenza artificiale nel contesto delle elezioni politiche.

Prossimo appuntamento, l’11 luglio

Non è invece intervenuto Boris Power, Applied Research Engineer di OpenAI, a differenza di quanto previsto. Di fatto, nei circa 40 minuti dell’audizione, è stato detto poco che non fosse già noto. Una lunga introduzione, poi le domande, senza però un vero e proprio scambio e nessuna richiesta di approfondimento in merito alle criticità che un’innovazione come quella a cui stiamo assistendo porta con sé.

Il prossimo appuntamento messo in agenda dal Comitato di Vigilanza sull’Attività di Documentazione della Camera dei Deputati in relazione al tema dell’intelligenza artificiale è fissato per l’11 luglio.

Visite totale 5 , 1 visite oggi

Continua a leggere

Scorri verso l'alto