Apple è già al lavoro per evitare le “allucinazioni” di Apple Intelligence

Facebook
WhatsApp
Twitter
LinkedIn
Telegram


Alcuni tester alle prese con le nuove funzioni legate ad Apple Intelligence, più nello specifico nel contesto della versione beta di macOS Sequoia, hanno scoperto dei file JSON che rivelano alcuni dettagli riguardo il lavoro di Apple sulla sua piattaforma di Intelligenza Artificiale.

Nei file in questione sembrano essere elencati numerosi parametri ideati per evitare all’IA di essere imprecisa o di fornire informazioni fuorvianti. Secondo quanto emerso, si tratta di vere e proprie istruzioni fornite agli algoritmi che, per certi versi, pongono dei veri e propri paletti morali all’operato di Apple Intelligence.

Stando a quanto indicato dal sito Ars Technica, i file in questione sono collocati nella cartella /System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels/purpose_auto, presente sui Mac con la versione beta di macOS Sequoia 15.1 e che aderiscono ai test relativi all’IA. La cartella presa in esame presenta 29 file che sembrano contenere una serie direttive potenzialmente valide per qualunque chatbot IA basato su large-language model (LLM) in circolazione.

Tra i tanti comandi vi sono alcune regole di natura prettamente funzionale, come la richiesta di limitare a 50 parole le risposte relative alla funzione Smart Reply. In altri casi si definisce, oltre a limiti in parole, anche il numero di frasi da usare per le risposte. Il tutto sembra ancora in fase di bozza, visto che alcune regole contengono ancora errori o imprecisioni.

Apple ha preparato una sorta di “comandamenti” per Apple Intelligence

Nella trentina di file, vi sono però alcuni “comandamenti” che appaiono già alquanto chiari. Questi sono in gran parte focalizzati sull’evitare i vari tipi di errori a cui l’IA tende a cadere, ovvero confabulazioni, allucinazioni o fraintendimenti vari.

Tra le fasi proposte per mantenere il lavoro di Apple Intelligence corretto ne figurano alcune alquanto esaustive come:

Offerta

  • Do not hallucinate, ovvero “non avere allucinazioni“;
  • Do not make up factual information, che significa “Non inventare informazioni fattuali“;
  • You are an expert at summarizing posts, tradotto in “Sei un esperto nel riassumere i post“;
  • You must keep to this role unless told otherwise, if you don’t, it will not be helpful, traducibile in “Devi attenerti a questo ruolo a meno che non ti venga detto diversamente, altrimenti non sarà utile“;
  • Only output valid json and nothing else, ovvero “L’unico output valido è in json e nient’altro“.

Grazie ai tanti studi effettuati su diversi LLM è stato chiarito come prompt dettagliati e specifici sono fondamentali per ottenere risposte corrette dall’IA generativa. Queste linee guida dovrebbero permettere ad Apple Intelligence di mantenere la concentrazione sull’output che sta elaborando, limitando il rischio di allucinazioni o errori simili.

A dimostrare quanto una IA senza limiti possa andare fuori controllo è stato il chatbot Bing Chat, lanciato all’inizio del 2023. A seconda dei prompt degli utenti, l’IA poteva diventare adirata e persino minacciosa nei loro confronti, oltre a risultare soggetta ad attacchi prompt injection. Avendo imparato dalla lezione di Bing Chat, Microsoft ha poi posto molti più limiti sul successivo chatbot Copilot.

Per quanto concerne Apple Intelligence, le sue funzionalità saranno disponibili agli utenti a partire dal prossimo autunno. Nonostante ciò, va ricordato come il servizio non sarà disponibile al lancio di iOS 18, iPadOS 18 e macOS 15. Proprio per questo motivo, i test di Apple si stanno concentrando su versioni beta dei sistemi operativi preparate appositamente per gli sviluppatori.



Source link

Visited 3 times, 1 visit(s) today

Continua a leggere

Scorri verso l'alto