“L’hardware anticipa sempre il software e determina il mercato”, ha sintetizzato Dongarra dal palco. E se ripercorrere la storia a ritroso è relativamente semplice, includendo anche uno sguardo ai valori di mercato e alla loro evoluzione, un po’ più complesso è invece individuare in anticipo i trend emergenti, tra architetture di calcolo sempre più complesse e la necessità di trovare un equilibrio tra efficienza e accuratezza.
Jack Dongarra, quale sarà il ruolo dell’intelligenza artificiale e del calcolo quantistico nello sviluppo scientifico e tecnologico nei prossimi anni?
“L’intelligenza artificiale sta trasformando il modo in cui facciamo scienza, poiché oggi viene impiegata per approssimare comportamenti complessi e perfezionare i risultati ottenuti attraverso tecniche tradizionali, permettendoci così di risparmiare tempo e risorse nei calcoli e di rendere più efficienti i processi di simulazione e modellazione. Il suo impatto, destinato a estendersi in maniera capillare in ogni settore, sarà verosimilmente ancora più profondo di quello che ha avuto internet, perché influenzerà non solo il nostro modo di lavorare e interagire ma anche come sviluppiamo software e facciamo scoperte scientifiche.
Il calcolo quantistico, al contrario, rappresenta oggi una frontiera affascinante ma ancora largamente sperimentale, oserei dire primitiva: i dispositivi attualmente disponibili, seppur operativi, sono caratterizzati da una complessità ancora molto lontana dall’uso pratico su larga scala, soprattutto a causa del numero limitato di qubit e della loro vulnerabilità agli errori. Una delle peculiarità più rilevanti di questo tipo di elaborazione è che non produce una singola risposta deterministica, ma piuttosto un insieme di soluzioni probabilistiche, da cui si può ricavare una tendenza solo attraverso l’esecuzione ripetuta dello stesso calcolo. Questo implica la necessità di sviluppare sia nuovi modelli teorici sia strumenti di controllo e verifica specifici per le architetture quantistiche, che peraltro sono ancora molto sensibili a qualunque tipo di rumore o instabilità”.
Quindi per la computazione quantistica siamo in un momento di hype?
“A oggi, gli algoritmi effettivamente eseguibili su queste piattaforme sono pochissimi, e non esistono ancora applicazioni consolidate in ambito industriale o scientifico. Tuttavia, l’interesse crescente verso questa tecnologia ha spinto numerosi centri di ricerca e di supercalcolo a iniziare a integrare moduli quantistici nei propri sistemi, con l’obiettivo di comprenderne i vantaggi in contesti mirati. È importante però mantenere uno sguardo critico e realistico: l’eccesso di aspettative può compromettere la fiducia nel progresso di lungo periodo che invece, come già accaduto con altre tecnologie emergenti, può richiedere decenni prima di esprimere appieno il proprio potenziale, attraversando momenti di hype e fasi di inverno con scarsa attenzione”.