Site icon visionedigitale.it

Ma davvero l’AI ha già raggiunto una coscienza?

Ma davvero l’AI ha già raggiunto una coscienza?

Il tema dell’intelligenza artificiale generativa porta con sé domande scomode, fastidiose, che a volte fanno persino paura. Una tra le più frequenti nel dibattito internazionale sull’intelligenza artificiale è quella che risuona in testa quando usiamo ChatGPT, Gemini, Copilot e tools del magico mondo Llm: ma il chatbot con cui sto parlando è cosciente? Sa comprendere le mie emozioni, mi capisce, magari mi vuole bene? E cosa potrebbe fare da solo un giorno, senza che nessuno glielo chieda? Insomma, l’AI ha una coscienza? E se oggi non ce l’ha potrebbe averla un giorno?

A queste domande hanno dato una loro risposta sei pesi massimi italiani del mondo scientifico nel dibattito “A.I. Coscienza” che si è svolto sabato 4 ottobre nell’auditorium Santa Chiara di Trento, in una sala gremita da oltre 800 persone. A rispondere, Federico Faggin, Maria Chiara Carrozza, Giulio Tononi, Marcello Massimini, Roberto Battiston e Paolo Traverso.

La risposta, in generale, è no: l’AI non ha una coscienza e non potrà averla in futuro. Ma c’è molto da sapere su quello che è un’intelligenza artificiale generativa e su quello che potrà fare. Esperti in discipline tecniche eterogenee come neuroscienza, robotica, fisica, psichiatria, gli scienziati sul palco di Trento hanno trattato con note di filosofia e pragmatismo le potenzialità di una AI generativa cosciente.

Le parole dei partecipanti

Marcello Massimini: “Chat GPT è come un cervelletto

Medico e neuroscienziato, Marcello Massimini ha un approccio lineare che parte dalla fisicità delle reti neurali comparate tra uomo e macchina. Lo affronta in relazione allo stato di coscienza esplorato attraversi casi clinici. I suoi studi più noti a livello internazionale esplorano come l’attività neuronale cambia nei diversi stati cerebrali, dal sonno alla veglia, dall’anestesia ai disturbi della coscienza. “Abbiamo cervelli integri o parzialmente integri, disconnessi dall’ambiente circostante, che attraverso i sogni ci mostrano come la coscienza può vivere aldilà di ciò che la circonda”, spiega.

Secondo quanto riportato da Massimini, nel cervello convivono circa 100 miliardi di neuroni, di cui 20 nella corteccia celebrale, che ha un ruolo essenziale e complesso nella vita di ciò che definiamo coscienza. Gli altri 80 miliardi risiedono nel cervelletto: “Questa parte del cervello è una macchina predittiva fantastica. Per fare qualche esempio, se parlo adesso e intanto mi muovo, se Sinner prende un servizio a velocità straordinaria, se ho un’idea o un’intuizione è merito del cervelletto. Ma ha un problema: non è cosciente. E lo sappiamo perché abbiamo notato che, se viene rimosso, il paziente dopo rimane cosciente”. Il neuroscienziato spiega che è un meccanismo feedforward di informazioni che entrano ed escono. In sintesi il cervelletto impara facendo, proprio come fa un’intelligenza artificiale generativa. “Quindi un sistema come ChatGPT assomiglia al cervelletto e quindi, almeno per adesso, non credo che l’AI sia cosciente. In ogni caso noi conviviamo molto bene con il cervelletto e quindi con un sistema come ChatGPT”, conclude.

La preoccupazione di Massimini riguardo questa convivenza è delegare la componente empatica, scambiandola per un’azione ripetitiva. “Non lasciamo ad Alexa il racconto di una storia alla sera ai nostri figli perché siamo stanchi. Così come non lasciamo a un robot dotato di AI il compito di stare vicino a un ragazzo disabile che ha bisogno di un contatto diretto”. L’empatia umana e il contatto fisico, quindi, sono ancora insostituibili.

Federico Faggin: “L’AI non può cercare il significato

Inventore del microprocessore e uno dei fisici italiani più noti al mondo, da qualche tempo Federico Faggin spazia su tematiche esistenziali che toccano la coscienza aldilà della vita. “Noi sappiamo di esistere, e come facciamo a saperlo? Perché siamo coscienti, come recita il noto aforisma cartesiano: cogito ergo sum. Ma il fatto che io dica di essere cosciente non vuol dire che lo sia davvero. La coscienza è un fenomeno privato: ognuno ha l’esperienza di esistere, pensare, emozionarsi”. Da questo presupposto il fisico passa alla concezione del simbolo e del significato: “Il significato viene prima del simbolo, sennò il simbolo non ha senso”. Le macchine comunicano attraverso simboli e possono fornire come output solo altri simboli, mentre l’essere umano li usa per raggiungere un significato attraverso la coscienza.

E questa è la funzione della coscienza umana, secondo Faggin. Noi siamo un campo quantistico e diamo significato a quello che osserviamo. Il campo che siamo controlla un avatar che è il corpo che osserva il mondo e agisce. Il corpo, quindi, è una sorta di avatar della coscienza, e la coscienza è più fondamentale del corpo”. Il fisico continua spiegando che l’AI generativa si muove come energia, e questa non ha coscienza perché non ha libero arbitrio. “Ogni cellula è infinitamente più importante di un transistor che ha solo interruttori che si muovono in una logica di on-off, senza libero arbitrio. Quest’ultimo permette di conoscere noi stessi e decidere liberamente cosa fare“. Ecco perché anche secondo lui un’intelligenza artificiale non ha coscienza. “Quando l’AI combina i concetti, non può crearne davvero di nuovi. La nostra capacità di comprendere è specificità dell’uomo, non può estendersi all’intelligenza artificiale”.

Roberto Battiston: “L’intelligenza artificiale è come un rastrello

Fisico sperimentale, Roberto Battiston è stato presidente dell’Agenzia spaziale italiana. Per 30 anni si è mosso su studi che variano dalle particelle elementari ai raggi cosmici. Parte da un’esperienza diretta, che a tutti capita di vivere quando si usa una AI generativa. “Quando ci interagiamo, sembra un simpatico essere umano che vi asseconda: qualcosa che spesso dà un certo fastidio. Battiston cita, come altri suoi colleghi sul palco, il test di Alan Turing, criterio per determinare se una macchina è in grado di esibire un comportamento intelligente: in sintesi, se un elaboratore riesce ad ingannarci facendoci credere di essere un umano, il test è superato. E quindi quel fastidio potrebbe essere figlio di quel tentativo di inganno. Da questa considerazione, “quando noi riconosciamo una similitudine umana a questa macchina, gli riconosciamo una certa coscienza. Ma andando dietro le quinte di ChatGPT si scopre che ha l’intelligenza di un rastrello”.

Dal palco, il fisico mostra alcuni esempi: uno tra tutti è la combinazione tra lettere, da cui alla fine esce un discorso compiuto e poetico che parte però da un innesco basato sulla maggiore probabilità di caratteri che si possono trovare online. Insomma, il risultato ordinato e armonico nell’output tradisce il caso assoluto nell’input: “Ma dov’è l’intelligenza? Noi abbiamo impostato gli algoritmi, noi abbiamo dato i comandi, noi scegliamo i parametri etici delle sue reazioni”.
D’altro canto, Battiston avvisa che l’interesse industriale è fare sembrare le AI generative sempre più simili agli umani così che siano sempre più presenti nella nostra vita per farci compagnia, il tutto per motivi principalmente commerciali. E in futuro? “Se aumentiamo la quantità di dati o di potenza degli elaboratori, aumentiamo il numero dei rastrelli. In pratica, l’AI è una macchina stupida come un sasso, ma potente come una valanga. Non c’è nessun salto di una qualificazione di coscienza”. Battiston riconosce però che l’AI è un’arma potentissima: “Come suggerivano le leggi della robotica di Isaac Asimov, l’uomo deve rimanere al centro della scena e i robot che domani saranno dotati di AI devono proteggerlo”.

Maria Grazia Carrozza: “L’educazione non si vende

Maria Grazia Carrozza è stata la prima donna presidente del Cnr, ex ministro dell’Istruzione e dell’Università, fisica specializzata in neuroingegneria e robotica. Anche lei pensa che l’AI non abbia coscienza, ma si lancia sull’analisi delle conseguenze delle sue applicazioni, in particolare sull’istruzione e quindi sulla coscienza delle nuove generazioni. Innanzitutto descrive cosa succederà da qui al 2030 in ambito robotico e intelligenza artificiale:

Di fronte a queste prospettive, la scienziata si chiede se tutto questo serva alle nuove generazioni: “Da un punto di vista etico mi chiedo perché sia necessario. La mia coscienza si è formata nella lettura, nella fatica del concetto da apprendere. Carrozza spiega poi come saranno applicate tecnologie immersive scolastiche da qui al 2050 e come i robot dotati di AI potranno sviluppare programmi di studio e politiche educative. “Questa previsione è una sveglia sonora: la grande novità non è più il robot in fabbrica ma nell’educazione. E un robot dotato di intelligenza artificiale costantemente vicino a un bambino ci pone una questione etica”. La fisica spiega come questi siano scenari perfettamente plausibili. “L’ultima frontiera è la Brain-computer interface: la robotica dalla fabbrica può arrivare dentro di noi. Può interpretare i nostri pensieri attraverso il decoding del segnale neurale e interpretare l’intenzione, ad esempio, di movimento”. Ma l’educazione e l’informazione non possono essere lasciate al caso, “abbiamo dato un’arma potente ai ragazzi in modo generalizzato senza verificare come controllarli, ma se i ragazzi non leggono e non studiano gli diamo questi strumenti senza fornirgli sviluppo di competenze, e a quel punto cosa rimane? C’è il cambiamento climatico che è un problema enorme, il pianeta si sta modificando e la coscienza collettiva deve avere questi strumenti per affrontare queste problematiche”.

Che, tanto per la cronaca, recita: un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

Paolo Traverso: “Fare è diverso da essere

Esperto di intelligenza artificiale e robotica, direttore della Pianificazione Strategica alla Fondazione Bruno Kessler, Traverso sposta l’attenzione sulle capacità operative dell’intelligenza artificiale. L’AI è superiore all’intelligenza umana? Se la domanda è fatta bene, in certe situazioni sì. Immagini, voce, linguaggio: in questi campi l’AI ha superato anche le capacità umane. Ci deve far paura? Dobbiamo piuttosto pensare alle sue chanches per l’umanità. Ad esempio, lo screening sul diabete o nel campo del cervello, o ancora come supporto ai medici nella cura del Parkinson”. Certo, Traverso spiega che c’è un’intelligenza usata bene e una usata male. Ma la questione della coscienza è tutto un’altro tema.

Secondo il direttore scientifico, l’AI è uno strumento gigantesco e il grande problema è che si sta sviluppando senza controllo, scienziati e ricercatori non possono più eludere le proprie responsabilità perché devono cercare di evitare conseguenze negative dall’applicazione di questo stesso strumento. Lo stesso vale per imprenditori, policy-maker, istituzioni. Non potremo sfogarci su una macchina che non ha alcuna coscienza delle sue azioni riguardo le eventuali conseguenze imprevedibili e negative per l’umanità”.

Giulio Tononi: “Noi soli siamo artefici del mondo

Giulio Tononi, psichiatria e neuroscienzato, che tra tutti presenta più lavori di ricerca proprio sul tema della coscienza, spiega che “la stragrande maggioranza dei colleghi è convinta che noi umani siamo dei calcolatori in carne ed ossa ma in una versione antiquata rispetto alle macchine di oggi”. Tononi afferma che l’opinione comune in ambito scientifico è che anche le macchine presto avranno una coscienza. “Ne sono convinti perché si può sostituire il corpo con la funzione, così come il cervello con il calcolatore: in fondo siamo entrambi fatti da reti neurali. La cosa che mi preoccupa di più è sminuire l’esistenza umana. Se si considera solo l’azione, il “fare” come diceva Traverso, si fa un grande errore. Tononi differenzia la coscienza dalla fisicità che la contiene: “Non siamo prigionieri di una macchina di cui siamo solo passeggeri. Quello che esiste è la coscienza umana, il neurone è solo un mezzo. Siamo artefici del mondo che ci circonda, mentre le macchine sono strumenti sofisticati: oggetti e non soggetti”, prosegue il neuroscienziato: “Non è un caso che soprattutto i giovani si trovino spaesati di fronte a questo tema e al futuro. Bisogna analizzare invece la coscienza e l’esperienza soggettiva può essere studiata scientificamente”.

Come se questa esperienza diretta non fosse alla fine una caratterizzazione umana rispetto a qualsiasi macchina esistente. Anche Tononi, quindi, non crede che l’AI abbia una coscienza e si unisce al coro unanime degli ospiti sul palco di Trento riguardo un tema che non potrà che catalizzare nuovi dibattiti in futuro.

Exit mobile version