Sul finire del 2025, il fondatore di OpenAI Sam Altman si è trovato nella delicata posizione di dover spiegare quale fosse il “quadro morale” su cui sono basati i comportamenti di ChatGPT. A porre la domanda era stato l’ex conduttore di Fox News, e oggi punto di riferimento dell’estrema destra statunitense, Tucker Carlson, particolarmente insistente – in questo caso anche in modo condivisibile – su un punto specifico: nel momento in cui l’intelligenza artificiale influenza i nostri comportamenti e le nostre scelte, quali criteri morali sono stati adottati nello sviluppo della macchina?
Dopo aver spiegato come OpenAI abbia consultato “centinaia di filosofi morali” e abbia “un team responsabile del comportamento” di ChatGPT, Altman alla fine ha affermato: “La persona che dovreste ritenere responsabile di queste decisioni sono io. Sono il volto pubblico. Alla fine sono io quello che può annullare una di queste decisioni. O tutt’al più il nostro consiglio di amministrazione”.
Come se niente fosse, Altman aveva infine ammesso come i comportamenti di un sistema di intelligenza artificiale, utilizzato da circa 800 milioni di persone, dipendessero in ultima istanza da una singola persona. Come ha chiosato Carlson: “In altre parole, l’ambiente in cui è cresciuto (Altman) e le idee che ha assimilato nel corso dei suoi 40 anni di vita determinano cosa viene trasmesso in tutto il mondo”.
Sono passati anni da quando esperimenti come la “moral machine” dell’MIT hanno dimostrato come l’intelligenza artificiale fallisca miseramente nel tenere conto dei diversi approcci alla moralità presenti nelle diverse aree del mondo e altrettanto tempo da quando numerose ricercatrici di etica dell’intelligenza artificiale hanno evidenziato i limiti e bias presenti in sistemi sviluppati – e quindi “educati” – da una componente molto omogenea della società, composta quasi esclusivamente da uomini che vivono nella Silicon Valley.
Nonostante tutto ciò, ancora oggi Sam Altman sembra non rendersi conto delle criticità sollevate dal fatto che una singola persona – o al massimo un piccolo gruppo – sia responsabile del “quadro morale” di un sistema che agisce a livello globale. È possibile che una persona con tale potere sia anche così ingenua? “Non penso che sia ingenuità, quanto piuttosto una mancanza d’interesse”, spiega Bruno Giussani, giornalista, ex direttore europeo dei TED Talks e autore di “La mente sotto assedio: come non lasciarsi manipolare nell’era dell’intelligenza artificiale”, appena pubblicato dalle Edizioni Casagrande.

“La mancanza d’interesse non può però essere l’unica spiegazione”, prosegue Giussani. “C’è anche la monoculturalità delle persone che sono alla testa di queste aziende e il loro modo di considerare fondamentalmente ogni utilizzatore soltanto una risorsa, dal quale estrarre dati e tempo di attenzione sugli schermi. Persone in grado, come ha fatto pochi giorni fa proprio Altman, di mettere sullo stesso piano gli investimenti energetici richiesti per sviluppare un’intelligenza artificiale e quelli necessari a crescere un essere umano. Non stava parlando di un aspetto tecnico, ma stava immaginando una sorta di nuova antropologia. Ce n’è abbastanza per iniziare a chiedersi che tipo di sguardo sul mondo e sulle persone abbiano questi leader delle grandi aziende tecnologiche. Non è quindi ingenuità e non è solo mancanza di interesse, è anche una forma specifica di ignoranza antropologica”.


