Google si lamenta che qualcuno tenta di copiare Gemini, ipocrisia?

Questa settimana, Google ha denunciato di essere vittima di attacchi di distillazione. In pratica, alcune aziende stanno bombardano Gemini con volumi enormi di richieste (oltre 100.000) per analizzare le risposte del modello e, in sostanza, copiarlo.

Big G ha definito la pratica come un metodo di furto di proprietà intellettuale che viola i termini di servizio. Certo che ci vuole un bel coraggio a pronunciare una frase del genere senza il minimo imbarazzo… Lei stessa ha sviluppato i suoi modelli AI rastrellando Internet, senza chiedere permesso a nessuno e senza pagare un centesimo ai detentori dei diritti.

Google accusa: “Vogliono copiare Gemini”. Ma lei ha fatto lo stesso, come funziona la distillazione

Invece di rubare il codice sorgente, un’operazione che richiederebbe un’intrusione informatica classica, gli attacchi di distillazione sfruttano l’accesso legittimo alle API del modello per sottoporgli migliaia di domande e analizzare le risposte. Da quelle risposte, con abbastanza dati e competenza, è possibile ricostruire una buona approssimazione del ragionamento del modello originale.

Google ha descritto un caso specifico in cui hanno usato oltre 100.000 prompt per tentare di replicare le capacità di ragionamento di Gemini in lingue diverse dall’inglese. L’azienda assicura che i suoi sistemi hanno riconosciuto l’attacco in tempo reale e ne hanno mitigato il rischio. Ma il problema strutturale resta, i modelli AI sono offerti come servizi pubblici, perciò chiunque con un accesso API può tentare l’estrazione.

DeepSeek docet, i piccoli possono battere i grandi

Il settore non è nuovo alla distillazione. All’inizio del 2025, la startup cinese DeepSeek aveva scosso la Silicon Valley presentando un modello AI molto più economico ed efficiente dei rivali americani. OpenAI aveva suggerito che DeepSeek potesse aver violato i suoi termini di servizio distillando i suoi modelli, accusa che aveva scatenato una forte reazione online, dato che l’azienda stessa ha costruito il suo impero grazie all’addestramento su enormi quantità di contenuti disponibili in rete, spesso senza un consenso esplicito degli autori.

Lo schema si ripete con Google, aziende che hanno fatto man bassa di dati protetti da copyright su scala industriale per costruire i propri modelli adesso piangono quando qualcuno usa le loro stesse tecniche, solo applicate a loro.

Il vero problema è che i modelli AI si assomigliano tutti

La paura di Google è che i modelli di punta stiano convergendo, le differenze tra Gemini, ChatGPT, Claude e gli altri sono sempre meno a ogni aggiornamento. Se a questo si aggiunge che attori molto più piccoli, con costi iniziali infinitamente inferiori, possono avvicinarsi alle prestazioni dei giganti attraverso la distillazione, il vantaggio competitivo rischia di svanire.

Le aziende di AI stanno cercando disperatamente di monetizzare con abbonamenti premium, pubblicità, licenze enterprise, ma se chiunque può clonare un modello con un accesso API e centomila prompt, il modello di business si sgretola. Google lo sa. E il fatto che si lamenti del furto di proprietà intellettuale, mentre è sepolta sotto le cause legali per aver fatto la stessa cosa con i contenuti altrui, rende tutto così paradossale…

Visite totale 1 , 1 visite oggi
Scorri verso l'alto