Claude 4, perché non riusciamo a resistere all’idea che l’intelligenza artificiale possa ricattare qualcuno?

Facebook
WhatsApp
Twitter
LinkedIn
Telegram

Ma non sa cosa sta suonando, non comprende l’armonia, né l’intenzione del compositore. Sta semplicemente generando, per approssimazione statistica, sequenze plausibili di note. I comportamenti osservabili dei modelli, anche quelli apparentemente più strani o sorprendenti, sono spiegabili in base alla loro struttura e al loro processo di addestramento. Non emergono pattern che richiedano una nuova teoria della mente o una revisione della nostra ontologia dei soggetti: gli Llm, infatti, non sono soggetti, ma simulazioni. Emergono quindi simulazioni sempre più accurate, ma non soggetti nuovi. E se questo ci disorientasse, forse dovremmo interrogarci sulla nostra alfabetizzazione tecnica prima di evocare nuove entità pensanti o presunte tali.

Un problema nostro, non della macchina

In questo contesto, la vera questione non è se l’AI si stia davvero “ribellando”, ma se noi siamo capaci di governare l’uso delle tecnologie che progettiamo. E mentre ci affanniamo a immaginare modelli “coscienti” che ci superano in astuzia per evitare la disattivazione, alimentando paure e influenzando persino le strategie di governance, trascuriamo i problemi concreti che queste tecnologie già generano: bias nei dati, opacità nelle decisioni automatizzate, uso malevolo dei modelli per la disinformazione, concentrazione del potere computazionale e infrastrutturale, assenza di regole condivise, mancanza di trasparenza algoritmica e di interoperabilità.

Tutti questi aspetti sono al centro del Manifesto della sostenibilità digitale dell’intelligenza artificiale pubblicato dalla Fondazione per la Sostenibilità Digitale, che indica la direzione verso cui guardare se vogliamo dare un futuro all’AI, e costruire il nostro futuro con essa. In questo quadro si inserisce anche un altro equivoco concettuale: quello dell’“etica dell’AI”. Parlare di etica dell’AI come se fosse l’AI a dover rispettare un codice morale è non solo fallace, ma pericolosamente fuorviante. L’etica è prerogativa dei soggetti morali, cioè degli esseri umani.

Nessun modello linguistico può essere soggetto di obblighi morali: non ha intenzioni, non comprende le conseguenze del proprio operato, e non può essere ritenuto responsabile. Se ha senso parlare di “etica dell’AI”, allora è solo in riferimento a chi l’intelligenza artificiale la progetta, la sviluppa, la addestra e la applica. L’etica non è “nell’algoritmo”, ma in chi lo sviluppa. La narrazione della ribellione delle macchine è, in questo senso, un diversivo tanto utile quanto ipocrita. Trasferisce la responsabilità alla macchina, distoglie l’attenzione dal disegno umano che la struttura e alimenta una retorica apocalittica. È l’equivalente digitale della favola del Golem. Si cerca di far passare l’idea che il Golem dell’AI, creatura artificiale fatta non di argilla ma di algoritmi e non da un rabbino ma da un programmatore, non possa che finire per ribellarsi, sfuggendo al controllo del suo creatore.

Visite totale 1 , 1 visite oggi

Continua a leggere

WhatsApp: collage automatici per gli stati

WhatsApp: collage automatici per gli stati

Già da qualche giorno, su WhatsApp per iOS è stata resa disponibile una nuova funzione dedicata agli aggiornamenti di stato, denominata “Layout”,

Scorri verso l'alto