Sora 2: perché la nuova frontiera del deepfake è un punto di non ritorno

OpenAI ha appena presentato Sora 2, la nuova versione del modello per la generazione di video, accompagnata da un social network integrato e da una funzione, “Cameo”, che consente di inserire il proprio volto e la propria voce all’interno di filmati creati dall’intelligenza artificiale.
Un annuncio che ha immediatamente acceso il dibattito pubblico. Ma c’è dietro qualcosa di più profondo: un punto di svolta nel modo in cui la società percepisce e legittima la manipolazione del reale.

Tutti possono generare deepfake

C’è un senso di inquietudine che accompagna questa novità: la possibilità per chiunque di generare un deepfake di sé stesso o di altri, con un livello di realismo mai raggiunto prima. Fino a oggi, il termine deepfake evocava scandali, truffe, casi di violenza digitale o disinformazione. Oggi invece viene proposto come una feature creativa, un passatempo, una forma di auto-espressione. È qui che si apre un rischio culturale: la normalizzazione dell’inganno visivo.

Quando una tecnologia potenzialmente pericolosa diventa di uso comune, perde il suo carattere di eccezionalità e di allarme. La società si abitua, la soglia di attenzione si abbassa, la percezione del rischio svanisce. In un contesto dove tutto può essere falsificato, diventa impossibile distinguere il vero dal falso, e con esso si dissolve la fiducia nei contenuti, nelle immagini, nelle prove.
È la logica del “se tutto è deepfake, allora niente lo è davvero”: un relativismo visivo che può minare le basi stesse del dibattito pubblico e dell’informazione.

Il nuovo social lanciato insieme a Sora

Ma c’è anche un secondo fronte che preoccupa: il nuovo social network lanciato insieme a Sora 2. Una piattaforma dove circolano esclusivamente contenuti generati dall’intelligenza artificiale, che replica in tutto e per tutto i meccanismi dei social tradizionali, ma sostituendo l’autenticità dell’esperienza umana con la simulazione totale.
Un paradosso se si pensa che, negli ultimi anni, la società sta iniziando a riflettere sugli effetti negativi dei social sulla salute mentale, sulla solitudine e sulla percezione di sé. Ora, proprio nel momento in cui emergono queste consapevolezze, arriva una piattaforma dove non esiste più alcun ancoraggio alla realtà.

La contraddizione diventa ancora più evidente se si leggono le dichiarazioni ufficiali con cui OpenAI ha accompagnato il lancio: parole come “sicurezza”, “protezione dei minori” e “salute mentale” risuonano in netto contrasto con la natura stessa del prodotto. La sensazione è quella di un esperimento sociale senza regole, dove le big tech testano i limiti della nostra tolleranza, spostando ogni volta un po’ più avanti l’asticella di ciò che è accettabile.

Questo approccio si inserisce in un quadro più ampio: quello di una società iperstimolata e satura di contenuti, dove il potere non si esercita più attraverso la censura ma attraverso l’eccesso.
La moltiplicazione dei video, la riproduzione infinita delle immagini, la confusione deliberata tra vero e falso creano un rumore di fondo che rende impossibile qualsiasi forma di discernimento. È una forma di controllo sottile, che non vieta ma disorienta, che non limita ma svuota di significato.
Non voglio spingere ad un’inconsapevole tecnofobia, ma a una chiamata alla responsabilità: dobbiamo ricordare che ogni progresso tecnologico richiede una consapevolezza proporzionale alla sua potenza. L’AI può essere uno straordinario alleato creativo, ma solo se rimane dentro un perimetro di trasparenza e di etica condivisa. Il rischio, altrimenti, è quello di un’informazione inquinata e di una cultura visiva dove la realtà non è più verificabile.

Visite totale 1 , 1 visite oggi
Scorri verso l'alto