Le allucinazioni dell’intelligenza artificiale sono arrivate in tribunale

Facebook
WhatsApp
Twitter
LinkedIn
Telegram

Ci si potrebbe poi aspettare che ChatGPT sia protagonista della maggior parte dei casi, vista la sua popolarità presso il grande pubblico e quindi anche tra coloro che scelgono di auto-rappresentarsi in tribunale. Ma nel database compaiono frequentemente anche altri nomi: Claude, Gemini, Copilot, ChatOn, e così via. A dimostrazione, se mai ce ne fosse ancora bisogno, che tutti i modelli linguistici, per definizione, possono generare allucinazioni. “Attenuare questo problema richiede competenze specifiche, e molte persone non si esercitano abbastanza per ottenere il meglio da questi strumenti”, osserva Charlotin.

Non considero il fenomeno del tutto nuovo. Il copia-incolla di citazioni giurisprudenziali, spinte fino al punto in cui perdono rilevanza rispetto al caso originario, è da tempo una prassi consolidata nella professione legale” dice il ricercatore.

Del resto, ‘questo precedente non significa ciò che tutti pensano che significhi’ è quasi un luogo comune nella dottrina giuridica. La differenza, oggi, è che con i chatbot si è oltrepassato un limite: non c’è più nemmeno una connessione formale con il punto di vista giuridico, perché la fonte normativa citata semplicemente non esiste. Ma questo, più che un problema legato all’intelligenza artificiale, evidenzia un limite strutturale: quello dell’argomentazione basata su una fonte autorevole, quando diventa cieca e automatica”.

Quando si tratta di precedenti giurisprudenziali infatti, i modelli linguistici di grandi dimensioni sono addestrati su grandi quantità di citazioni che possono essere replicate fittiziamente con una buona dose di credibilità: in un paper scientifico in cui lo stesso Charlotin spiega il fenomeno, il ricercatore fa riferimento a un caso fittizio intitolato “Smith v. United States (1992)” che non suona meno credibile di un caso reale.

In sostanza, nel contesto giuridico i chatbot ottimizzano la coerenza linguistica che, a volte, può sostituire la finzione ai fatti. Il ricercatore spiega poi come questa sia una tecnologia incentivata anche dal modello di business prevalente in molti studi legali. È infatti prassi abbastanza diffusa che una parte significativa della ricerca legale venga affidata ad avvocati junior, spesso sottoposti a forti pressioni in termini di tempo e costi. A questi ultimi è richiesto di svolgere un lavoro testuale molto lungo e cruciale, anche se poi la responsabilità del prodotto finale e della reputazione professionale ad esso collegata ricade su chi ne firma la versione definitiva. Sicuramente per entrambi vale il fatto di trovarsi in una situazione lavorativa condizionata da un forte sovraccarico di informazioni che porta a un’eccessiva deferenza nei confronti dei risultati dei sistemi automatizzati e, dunque, riduce l’analisi critica sul testo generato.

Qualsiasi risposta è meglio di nessuna risposta

Il funzionamento dei chatbot è semplice, anche se spesso viene messo in secondo piano nel dibattito sul tema. Si tratta di strumenti che, in base all’addestramento ricevuto, prevedono quale sia la parola successiva più probabile da un punto di vista statistico. Per questo motivo, quando si trovano a rispondere a domande generiche, i chatbot dimostrano tutta la loro limitatezza. OpenAI, l’azienda dietro ChatGPT, ha recentemente dichiarato che in questi casi specifici le sue ultime tecnologie hanno allucinazioni dal 51% al 79% delle volte. Sebbene siano in grado di generare testi coerenti e persuasivi, questi modelli non comprendono davvero i contenuti, almeno non nel senso in cui lo farebbe un essere umano. La tastiera del computer o dello smartphone completano la frase che stiamo digitando seguendo lo stesso ragionamento.

C’è poi un altro aspetto spesso trascurato: i modelli linguistici sono progettati per soddisfare l’utente. Essendo prodotti commerciali, esattamente come un frigorifero o un microonde, vengono sviluppati per non ammettere l’incertezza. Chi paga un abbonamento per usare ChatGPT, si aspetta risposte alle proprie domande. Da un punto di vista di mercato, quindi, le aziende tecnologiche come OpenAI, Google, Deepseek e altre ritengono preferibile fornire una qualsiasi risposta piuttosto che nessuna. Risposte plausibili ma non veritiere, che sembrano corrette ma non poggiano su alcun fondamento reale — né nei fatti, né, come in questo caso, nel diritto.

Visite totale 2 , 2 visite oggi

Continua a leggere

Scorri verso l'alto