Se si prova a lanciare una moneta in aria, si ha il 50% di possibilità di indovinare se uscirà testa o croce. Ma se si guarda un’immagine online e si prova a capire se è vera o generata dall’AI, le probabilità di successo salgono solo al 62%. Praticamente, siamo appena migliori del caso fortuito. È questo il risultato scioccante che emerge da una ricerca Microsoft che ha coinvolto oltre 12.500 persone in tutto il mondo.
Non sappiamo riconoscere le immagini generate dall’AI, lo studio di Microsoft
I ricercatori di Microsoft hanno condotto il più vasto esperimento sulla percezione umana dell’intelligenza artificiale. Attraverso un quiz chiamato “Real or Not“, hanno sottoposto a 287.000 valutazioni di immagini migliaia di partecipanti provenienti da ogni angolo del pianeta.
Il risultato? Un modesto 62% di successo complessivo nel riconoscere le immagini false. Non è una bella notizia, considerando che tirando a caso si otterrebbe comunque il 50%.
L’aspetto più interessante dello studio riguarda le differenze nella nostra capacità di riconoscimento. Mentre riusciamo relativamente bene a smascherare i ritratti artificiali, probabilmente grazie alla nostra innata capacità di analizzare i volti umani, crolliamo miseramente di fronte ai paesaggi naturali e urbani, con percentuali che scendono al 59-61%.
È come se il nostro cervello, programmato per decifrare espressioni e tratti somatici, perdesse improvvisamente le sue capacità quando si trova davanti a una montagna generata dal computer o a uno skyline che non è mai esistito.
L’inpainting è la tecnica più insidiosa
Tra tutte le tecniche di generazione artificiale, ce n’è una che è particolarmente insidiosa: l’inpainting. Questa metodologia sostituisce piccoli elementi di una fotografia reale con dettagli creati dall’AI, rendendo la falsificazione praticamente impossibile da identificare a occhio nudo. Secondo Microsoft, questa tecnica è un rischio significativo per le campagne di disinformazione.
Mentre noi umani arranchiamo con il nostro misero 62%, gli strumenti di rilevamento AI sviluppati dai ricercatori Microsoft raggiungono percentuali di successo superiori al 95%. È l’ennesima dimostrazione di come le macchine stiano diventando non solo più brave a creare contenuti falsi, ma anche più efficienti nel riconoscerli.
Un risultato controintuitivo emerso dalla ricerca riguarda l’efficacia delle diverse tecnologie di generazione. Le vecchie reti generative avversarie (GAN) e le tecniche di inpainting si sono rivelate più convincenti dei moderni modelli come Midjourney e DALL-E 3.
Questi sistemi più datati producono immagini che sembrano fotografie amatoriali piuttosto che creazioni da studio professionale. È l’imperfezione che rende perfetto l’inganno: un’immagine leggermente sfocata o con colori non perfetti appare più autentica di una generazione AI impeccabile.
Quali sono le soluzioni
I ricercatori di Microsoft hanno anche proposto delle soluzioni concrete. Watermark invisibili, strumenti di rilevamento più sofisticati e campagne educative sono alcune delle contromisure suggerite per arginare il fenomeno.
Tuttavia, la battaglia sembra impari. Mentre sviluppiamo sistemi per identificare le immagini false, l’AI continua a migliorare nella creazione di contenuti sempre più convincenti. È una rincorsa senza fine dove, al momento, sembra vincere chi crea piuttosto che chi cerca di smascherare.