Quando OpenAI ha lanciato Sora, la sua piattaforma di video social generati dall’AI, probabilmente immaginava un futuro dove la creatività esplodesse in modo genuino. Quello che ha ottenuto invece è stato un parco giochi perverso, dove la gente ridicolizza personaggi che hanno fatto la storia, come Stephen Hawking che viene brutalmente maltrattato, o il presidente Kennedy che parla delle offerte del Black Friday…
L’ultima bravata sono i deepfake di Martin Luther King Jr. che emette versi di scimmia o lotta con Malcolm X. OpenAI ha annunciato di aver sospeso la possibilità di generare video dell’attivista per i diritti civili, dopo che gli eredi hanno giustamente chiesto che l’immagine del Dr. King venisse protetta.
OpenAI vieta i deepfake di Martin Luther King dopo le proteste della famiglia
La mossa arriva su richiesta diretta della famiglia King, dopo che alcuni utenti di Sora hanno deciso che la libertà di espressione significava poter trasformare una delle figure più importanti della storia americana in contenuto da meme disturbante. OpenAI ha risposto con una dichiarazione che cerca di bilanciare libertà di espressione e dignità umana, affermando che i personaggi pubblici e le loro famiglie debbano avere il controllo su come viene utilizzata la loro immagine
.
I rappresentanti autorizzati o i proprietari dell’eredità possono ora richiedere che determinate immagini non vengano usate nei “cameo” generati da Sora, un termine che fa sembrare i deepfake meno inquietanti di quanto siano in realtà.
Il lancio di Sora è avvenuto solo poche settimane fa, ma è bastato questo breve lasso di tempo per scatenare un dibattito pubblico acceso sui pericoli dei video generati dall’intelligenza artificiale. La piattaforma permette agli utenti di creare clip realistiche che assomigliano a personaggi storici, ai loro amici, o a chiunque scelgano di ricreare digitalmente. È come Photoshop, ma per i video, e con conseguenze potenzialmente devastanti per la verità, la memoria storica e il rispetto per i defunti.
Bernice King, figlia del Dr. King, ha pubblicato la scorsa settimana un post su Instagram supplicando le persone di smettere di inviarle video generati dall’AI che assomigliano a suo padre. Non è la sola, la figlia di Robin Williams si è unita al coro, chiedendo agli utenti di Sora di lasciare in pace l’immagine di suo padre. È una situazione surreale dove le famiglie dei defunti devono pubblicamente implorare Internet di smettere di resuscitare i loro cari per farli dire o fare cose che non avrebbero mai detto o fatto.
Il Washington Post ha riportato che gli utenti di Sora avevano creato video del Dr. King in situazioni degradanti che non vale nemmeno la pena descrivere in dettaglio, perché l’idea stessa è già abbastanza rivoltante.
Il copyright è solo un suggerimento, apparentemente
Oltre al problema etico di come Sora rappresenta gli esseri umani, vivi o morti, c’è anche la questione spinosa del copyright. L’app è invasa da video che raffigurano personaggi protetti da diritti d’autore: SpongeBob, South Park, Pokémon. È come se OpenAI avesse costruito una piattaforma e poi si fosse dimenticata che le leggi sulla proprietà intellettuale esistono.
All’inizio di ottobre, l’azienda ha dichiarato di voler dare ai titolari dei diritti d’autore un controllo più granulare sui tipi di video che possono essere generati con la loro proprietà intellettuale. Potrebbe essere stata una risposta alla reazione iniziale di Hollywood, che non è stata esattamente entusiasta di vedere i propri personaggi rianimati e manipolati senza permesso. Difficile biasimarli.
Due pesi, due misure: Sora vs ChatGPT
Mentre OpenAI aggiunge restrizioni a Sora per questioni di rispetto e dignità, l’azienda ha annunciato questa settimana che nei prossimi mesi permetterà agli utenti adulti di avere conversazioni “erotiche” con ChatGPT. È un approccio un po’ incoerente. Da una parte proteggere l’immagine dei defunti, dall’altra trasformare il chatbot in un compagno di conversazioni piccanti. Forse la differenza è che con ChatGPT non c’è un volto, non c’è un’identità riconoscibile che viene sfruttata.
OpenAI sta chiaramente imparando in corsa, aggiungendo restrizioni man mano che emergono i problemi invece di anticiparli. La famiglia King ha ottenuto quello che chiedeva, ma resta da vedere quante altre famiglie dovranno fare richieste simili prima che OpenAI capisca che forse alcune cose non dovrebbero essere possibili punto e basta, non solo su richiesta.