Quasi contemporaneamente all’accordo sottoscritto con AMD, OpenAI ha introdotto nuovi controlli per i cameo, ovvero i video generati dal modello Sora 2 nell’app per iOS con persone reali. Nei prossimi giorni dovrebbero arrivare anche i controlli per il copyright, come anticipato dal CEO Sam Altman nel fine settimana.
Più controlli sui deepfake
Come già accaduto in altre occasioni, le aziende portano sul mercato nuovi prodotti e successivamente migliorano le protezioni per sicurezza, privacy e copyright. Subito dopo il lancio dell’app Sora per iOS sono apparsi migliaia di deepfake con persone reali. OpenAI aveva scritto che gli utenti possono decidere chi può usare i cameo ed eventualmente revocare l’accesso o rimuovere i video.
Bill Peebles, responsabile del team Sora in OpenAI, ha annunciato alcuni miglioramenti per il “TikTok dei deepfake“. Sono state innanzitutto aggiunte restrizioni per l’uso dei cameo da parte degli altri utenti. Nelle preferenze è possibile vietare la generazione di specifici video (ad esempio, “non mettermi in video che contengono commenti politici” o “non farmi dire questa parola“).
Nei prossimi giorni vedremo se questi filtri verranno rispettati. Diversi utenti hanno già trovato il modo di aggirare il watermark aggiunto ai video generati da Sora 2. OpenAI ha promesso miglioramenti per renderlo più visibile. L’azienda californiana ha inoltre avviato l’implementazione di modifiche per ridurre i falsi negativi e migliorare la moderazione.
È stato anche corretto un bug che impediva di cancellare l’account per Sora senza cancellare anche quello per ChatGPT. Biil Peebles ha infine comunicato che presto sarà possibile inserire personaggi di fantasia nei video senza violare il copyright.